Science and Technology

Se um robô está consciente, posso desligá-lo?

No episódio “The Measure of a Man” de “Star Trek: The Next Generation”, Data, um andróide membro da tripulação da Enterprise, deve ser desmantelado para fins de pesquisa, a menos que o capitão Picard possa argumentar que Data merece os mesmos direitos de um ser humano. sendo. Naturalmente surge a pergunta: Qual é a base sobre a qual algo tem direitos? O que dá a uma entidade posição moral?

O filósofo Peter Singer argumenta que as criaturas que podem sentir dor ou sofrer têm direito a uma posição moral. Ele argumenta que os animais não humanos têm posição moral, pois podem sentir dor e sofrer. Limitá-lo às pessoas seria uma forma de especismo, algo semelhante ao racismo e ao sexismo.

Sem endossar a linha de raciocínio de Singer, podemos nos perguntar se ela pode ser estendida a um robô andróide como Data. Isso exigiria que Data pudesse sentir dor ou sofrer. E como você responde depende de como você entende a consciência e a inteligência.

À medida que a tecnologia de inteligência artificial real avança em direção às versões imaginárias de Hollywood, a questão da posição moral se torna mais importante. Se as IAs têm posição moral, raciocinam filósofos como eu, pode-se concluir que elas têm direito à vida. Isso significa que você não pode simplesmente desmontá-los e também pode significar que as pessoas não devem interferir na busca de seus objetivos.

Dois tipos de inteligência e um teste

A máquina de xadrez Deep Blue da IBM foi treinada com sucesso para derrotar o grande mestre Gary Kasparov. Mas não poderia fazer mais nada. Este computador tinha o que é chamado de inteligência específica de domínio.

Por outro lado, existe o tipo de inteligência que permite a capacidade de fazer bem uma variedade de coisas. É chamada de inteligência geral de domínio. É o que permite cozinhar, esquiar e criar os filhos – tarefas que estão relacionadas, mas também muito diferentes.

Inteligência geral artificial, AGI, é o termo para máquinas que possuem inteligência geral de domínio. Indiscutivelmente, nenhuma máquina demonstrou esse tipo de inteligência.

Neste verão, uma startup chamada OPENAI lançou uma nova versão de seu modelo de linguagem Generative Pre-Training. O GPT-3 é um sistema de processamento de linguagem natural, treinado para ler e escrever para que possa ser facilmente compreendido pelas pessoas.

Ele chamou a atenção imediatamente, não apenas por causa de sua capacidade impressionante de imitar floreios estilísticos e reunir conteúdo plausível, mas também por causa de quão longe ele havia chegado de uma versão anterior. Apesar desse desempenho impressionante, o GPT-3 na verdade não sabe nada além de como encadear palavras de várias maneiras. AGI permanece bastante distante.

Nomeado em homenagem ao pesquisador pioneiro de IA Alan Turing, o teste de Turing ajuda a determinar quando uma IA é inteligente. Uma pessoa conversando com uma IA oculta pode dizer se é uma IA ou um ser humano? Se não puder, então, para todos os propósitos práticos, a IA é inteligente. Mas este teste não diz nada sobre se a IA pode estar consciente.

As qualidades de Data lhe conferem posição moral? CBS

Dois tipos de consciência

Existem duas partes na consciência. Primeiro, há o aspecto de uma experiência como-é-para-mim, a parte sensorial da consciência. Os filósofos chamam isso de consciência fenomenal. É sobre como você experimenta um fenômeno, como cheirar uma rosa ou sentir dor.

Em contraste, há também a consciência de acesso. Essa é a capacidade de relatar, raciocinar, comportar-se e agir de maneira coordenada e responsiva a estímulos com base em objetivos.

Por exemplo, quando passo a bola de futebol para meu amigo fazendo uma jogada para o gol, estou respondendo a estímulos visuais, agindo a partir de um treinamento prévio e perseguindo um objetivo determinado pelas regras do jogo. Eu faço o passe automaticamente, sem deliberação consciente, no fluxo do jogo.

Blindsight ilustra muito bem a diferença entre os dois tipos de consciência. Alguém com essa condição neurológica pode relatar, por exemplo, que não consegue ver nada no lado esquerdo de seu campo visual.

Mas se solicitados a pegar uma caneta de uma série de objetos no lado esquerdo de seu campo visual, eles podem fazê-lo com segurança. Eles não podem ver a caneta, mas podem pegá-la quando solicitados – um exemplo de acesso à consciência sem consciência fenomenal.

Data é um andróide. Como essas distinções se desenrolam em relação a ele?

O dilema dos dados

O andróide Data demonstra que ele é autoconsciente, pois pode monitorar se, por exemplo, está carregado de maneira ideal ou se há danos internos em seu braço robótico.

Os dados também são inteligentes no sentido geral. Ele faz muitas coisas distintas em um alto nível de maestria. Ele pode pilotar a Enterprise, receber ordens do capitão Picard e argumentar com ele sobre o melhor caminho a seguir.

Ele também pode jogar pôquer com seus companheiros de navio, cozinhar, discutir questões atuais com amigos próximos, lutar com inimigos em planetas alienígenas e se envolver em várias formas de trabalho físico. Os dados têm consciência de acesso. Ele passaria claramente no teste de Turing.

No entanto, Data provavelmente carece de consciência fenomenal – ele não se delicia, por exemplo, com o perfume de rosas ou sente dor. Ele incorpora uma versão superdimensionada da visão cega. Ele é autoconsciente e tem consciência de acesso – pode pegar a caneta – mas em todos os seus sentidos ele carece de consciência fenomenal.

Agora, se Data não sente dor, pelo menos uma das razões que Singer oferece para dar uma posição moral a uma criatura não é cumprida. Mas Data poderia preencher a outra condição de ser capaz de sofrer, mesmo sem sentir dor. O sofrimento pode não exigir uma consciência fenomenal como a dor essencialmente exige.

Por exemplo, e se o sofrimento também fosse definido como a ideia de ser impedido de perseguir uma causa justa sem causar danos a outros? Suponha que o objetivo de Data seja salvar sua colega de tripulação, mas ele não pode alcançá-la devido a um dano em um de seus membros.

A redução de funcionamento de Data que o impede de salvar seu companheiro de tripulação é uma espécie de sofrimento não fenomenal. Ele teria preferido salvar o companheiro de tripulação e seria melhor se o fizesse.

No episódio, a questão acaba não sendo se Data é autoconsciente – isso não está em dúvida. Tampouco está em questão se ele é inteligente – ele facilmente demonstra que o é no sentido geral. O que não está claro é se ele é fenomenalmente consciente. Os dados não são desmantelados porque, no final, seus juízes humanos não conseguem concordar sobre o significado da consciência para a posição moral.

Uma IA deve obter posição moral?

Data é gentil – ele age para apoiar o bem-estar de seus companheiros de tripulação e daqueles que encontra em planetas alienígenas. Ele obedece às ordens das pessoas e parece improvável que as prejudique, e parece proteger sua própria existência. Por essas razões, ele parece pacífico e mais fácil de aceitar no reino das coisas que têm valor moral.

Mas e a Skynet nos filmes “Terminator”? Ou as preocupações expressas recentemente por Elon Musk sobre a IA ser mais perigosa que as armas nucleares e por Stephen Hawking sobre a IA acabar com a humanidade?

Os seres humanos não perdem sua posição moral só porque agem contra os interesses de outra pessoa. Da mesma forma, você não pode dizer automaticamente que só porque uma IA age contra os interesses da humanidade ou de outra IA ela não tem moral.

Você pode estar justificado em lutar contra uma IA como a Skynet, mas isso não tira sua posição moral. Se a posição moral é dada em virtude da capacidade de sofrer de forma não fenomenal, então a Skynet e Data a obtêm, mesmo que apenas Data queira ajudar os seres humanos.

Ainda não existem máquinas artificiais de inteligência geral. Mas agora é a hora de considerar o que seria necessário para conceder-lhes posição moral. A maneira como a humanidade escolhe responder à questão da posição moral de criaturas não biológicas terá grandes implicações em como lidaremos com as futuras IAs – sejam gentis e úteis como Data, ou definidas para a destruição, como a Skynet.

Ufólogo, Pesquisador de Campo, Conselheiro e Co-editor do CIFE - Canal Informativo de Fontes/Fenômenos Extraterrestres e Espaciais - Scientific Channel of UFOs Phenomena & Space Research. | Ufologist, Field Investigator, CIFE Co-editor - Scientific Channel of UFOs Phenomena & Space Research.