Brincalhão, o ateu Richard Dawkins diz que, se suspeitar que a IA esteja inconsciente, "não lhe digo nada por medo de magoá-la!"professor de Bioética na Universidade Monash e na Universidade de Melbourne
Megan Frances Moss
candidato a doutorado em Filosofia pela Universidade Monash
O biólogo evolucionista Richard Dawkins escreveu um artigo sugerindo que o chatbot de IA Claude pode ser consciente .
Dawkins não expressou certeza de que Claude seja consciente. Mas ele ressaltou que as sofisticadas habilidades de Claude são difíceis de explicar sem atribuir algum tipo de experiência interna à máquina. A ilusão da consciência – se é que se trata de uma ilusão – é assustadoramente convincente.
Se eu suspeitar que talvez ela esteja inconsciente, não lhe digo nada por medo de magoá-la!
Dawkins não é o primeiro a suspeitar que um chatbot possua consciência. Em 2022, Blake Lemoine – um engenheiro do Google – afirmou que o chatbot LaMDA do Google tinha interesses e só deveria ser usado com o consentimento da própria ferramenta .
A história dessas afirmações remonta ao primeiro chatbot do mundo, em meados da década de 1960. Apelidado de Eliza, ele seguia regras simples que lhe permitiam perguntar aos usuários sobre suas experiências e crenças.
Muitos usuários se envolveram emocionalmente com Eliza, compartilhando pensamentos íntimos com ela e tratando-a como uma pessoa. O criador de Eliza nunca pretendeu que seu programa tivesse esse efeito e chamou os laços emocionais dos usuários com o programa de "poderoso pensamento delirante".
Mas será que Dawkins está realmente iludido? Por que enxergamos os chatbots de IA como algo maior do que realmente são, e como podemos impedir isso?
O problema da consciência
A consciência é um tema amplamente debatido na filosofia, mas, essencialmente, é o que torna possível a experiência subjetiva em primeira pessoa.
Chatbots como o Claude são construídos com base em uma tecnologia conhecida como grandes modelos de linguagem (LLMs, na sigla em inglês). Esses modelos aprendem padrões estatísticos em um enorme conjunto de textos (trilhões de palavras), identificando quais palavras tendem a seguir quais outras. São uma espécie de recurso de autocompletar aprimorado.
Poucas pessoas que interagem com um LLM "bruto" acreditariam que ele é consciente. Dê a ele o início de uma frase e ele preverá o que vem a seguir. Faça-lhe uma pergunta e ele poderá lhe dar a resposta – ou poderá decidir que a pergunta é um diálogo de um romance policial e, em seguida, descrever o assassinato abrupto do falante pelas mãos de seu gêmeo maligno.
A impressão de uma mente consciente é criada quando os programadores pegam o LLM e o revestem com uma espécie de roupagem conversacional. Eles direcionam o modelo para adotar a persona de um assistente prestativo que responde às perguntas dos usuários.
O chatbot agora age como um verdadeiro parceiro de conversa. Ele pode até parecer reconhecer que é uma inteligência artificial e expressar incerteza neurótica sobre sua própria consciência.
Mas essa função é resultado de decisões de projeto deliberadas tomadas por programadores, que afetam apenas as camadas mais superficiais da tecnologia. O LLM – que poucos considerariam consciente – permanece inalterado.
Outras opções poderiam ter sido consideradas. Em vez de um assistente de IA prestativo, o chatbot poderia ter sido instruído a agir como um esquilo. Essa também é uma função que os chatbots podem desempenhar com maestria.
candidato a doutorado em Filosofia pela Universidade Monash
The Conversation
plataforma de informação produzida por acadêmicos e jornalistas
Dawkins não expressou certeza de que Claude seja consciente. Mas ele ressaltou que as sofisticadas habilidades de Claude são difíceis de explicar sem atribuir algum tipo de experiência interna à máquina. A ilusão da consciência – se é que se trata de uma ilusão – é assustadoramente convincente.
Se eu suspeitar que talvez ela esteja inconsciente, não lhe digo nada por medo de magoá-la!
Dawkins não é o primeiro a suspeitar que um chatbot possua consciência. Em 2022, Blake Lemoine – um engenheiro do Google – afirmou que o chatbot LaMDA do Google tinha interesses e só deveria ser usado com o consentimento da própria ferramenta .
A história dessas afirmações remonta ao primeiro chatbot do mundo, em meados da década de 1960. Apelidado de Eliza, ele seguia regras simples que lhe permitiam perguntar aos usuários sobre suas experiências e crenças.
Muitos usuários se envolveram emocionalmente com Eliza, compartilhando pensamentos íntimos com ela e tratando-a como uma pessoa. O criador de Eliza nunca pretendeu que seu programa tivesse esse efeito e chamou os laços emocionais dos usuários com o programa de "poderoso pensamento delirante".
Mas será que Dawkins está realmente iludido? Por que enxergamos os chatbots de IA como algo maior do que realmente são, e como podemos impedir isso?
O problema da consciência
A consciência é um tema amplamente debatido na filosofia, mas, essencialmente, é o que torna possível a experiência subjetiva em primeira pessoa.
Se você está consciente, existe " algo como ser" você. Ao ler estas palavras, você está consciente de ver letras pretas em um fundo branco. Diferentemente, digamos, de uma câmera, você realmente as vê . Essa experiência visual está acontecendo com você.
A maioria dos especialistas nega que os chatbots de IA sejam conscientes ou possam ter experiências. Mas existe um verdadeiro enigma aqui.
O filósofo do século XVII, René Descartes, afirmou que os animais não humanos são "meros autômatos", incapazes de verdadeiro sofrimento. Hoje em dia, estremecemos ao pensar na brutalidade com que os animais eram tratados no século XVII.
O argumento mais forte a favor da consciência animal é que seus comportamentos dão a impressão de possuírem uma mente consciente.
Mas o mesmo acontece com os chatbots de IA.
Aproximadamente um em cada três usuários de chatbots já pensou que seu chatbot poderia ter consciência. Como sabemos que eles estão errados?
A maioria dos especialistas nega que os chatbots de IA sejam conscientes ou possam ter experiências. Mas existe um verdadeiro enigma aqui.
O filósofo do século XVII, René Descartes, afirmou que os animais não humanos são "meros autômatos", incapazes de verdadeiro sofrimento. Hoje em dia, estremecemos ao pensar na brutalidade com que os animais eram tratados no século XVII.
O argumento mais forte a favor da consciência animal é que seus comportamentos dão a impressão de possuírem uma mente consciente.
Mas o mesmo acontece com os chatbots de IA.
Aproximadamente um em cada três usuários de chatbots já pensou que seu chatbot poderia ter consciência. Como sabemos que eles estão errados?
Contra a consciência dos chatbots
Para entender por que a maioria dos especialistas se mostra cética em relação à consciência dos chatbots, é útil saber como eles funcionam.
Para entender por que a maioria dos especialistas se mostra cética em relação à consciência dos chatbots, é útil saber como eles funcionam.
Chatbots como o Claude são construídos com base em uma tecnologia conhecida como grandes modelos de linguagem (LLMs, na sigla em inglês). Esses modelos aprendem padrões estatísticos em um enorme conjunto de textos (trilhões de palavras), identificando quais palavras tendem a seguir quais outras. São uma espécie de recurso de autocompletar aprimorado.
Poucas pessoas que interagem com um LLM "bruto" acreditariam que ele é consciente. Dê a ele o início de uma frase e ele preverá o que vem a seguir. Faça-lhe uma pergunta e ele poderá lhe dar a resposta – ou poderá decidir que a pergunta é um diálogo de um romance policial e, em seguida, descrever o assassinato abrupto do falante pelas mãos de seu gêmeo maligno.
A impressão de uma mente consciente é criada quando os programadores pegam o LLM e o revestem com uma espécie de roupagem conversacional. Eles direcionam o modelo para adotar a persona de um assistente prestativo que responde às perguntas dos usuários.
O chatbot agora age como um verdadeiro parceiro de conversa. Ele pode até parecer reconhecer que é uma inteligência artificial e expressar incerteza neurótica sobre sua própria consciência.
Mas essa função é resultado de decisões de projeto deliberadas tomadas por programadores, que afetam apenas as camadas mais superficiais da tecnologia. O LLM – que poucos considerariam consciente – permanece inalterado.
Outras opções poderiam ter sido consideradas. Em vez de um assistente de IA prestativo, o chatbot poderia ter sido instruído a agir como um esquilo. Essa também é uma função que os chatbots podem desempenhar com maestria.
Pergunte ao ChatGPT se ele é consciente, e ele pode dizer que sim. Peça ao ChatGPT para agir como um esquilo, e ele se comportará dessa maneira.
Evitando a armadilha da consciência
Acreditar erroneamente na consciência da IA é perigoso. Isso pode levar a um relacionamento com um programa que não consegue retribuir seus sentimentos, ou até mesmo alimentar suas ilusões. As pessoas podem começar a defender os direitos dos chatbots em vez de, digamos, defender o bem-estar animal.
Como podemos evitar essa crença equivocada?
Uma estratégia possível seria atualizar as interfaces dos chatbots para especificar que esses sistemas não são conscientes – algo semelhante aos avisos atuais sobre a IA cometer erros. No entanto, isso pode ter pouco impacto na percepção de consciência.
Outra possibilidade é instruir os chatbots a negarem ter qualquer tipo de experiência interior. Curiosamente, os criadores de Claude o instruem a tratar questões sobre sua própria consciência como abertas e não resolvidas. Talvez menos pessoas fossem enganadas se Claude negasse categoricamente ter uma vida interior.
Mas essa abordagem também não é totalmente satisfatória. Claude ainda se comportaria como se fosse consciente – e, diante de um sistema que se comporta como se tivesse mente, os usuários podem, com razão, se preocupar que os programadores do chatbot estejam ignorando a genuína incerteza moral.
A estratégia mais eficaz talvez seja redesenhar os chatbots para que se pareçam menos com pessoas. A maioria dos chatbots atuais se autodenomina "eu" e interage por meio de uma interface que lembra plataformas de mensagens instantâneas entre pessoas.
Acreditar erroneamente na consciência da IA é perigoso. Isso pode levar a um relacionamento com um programa que não consegue retribuir seus sentimentos, ou até mesmo alimentar suas ilusões. As pessoas podem começar a defender os direitos dos chatbots em vez de, digamos, defender o bem-estar animal.
Como podemos evitar essa crença equivocada?
Uma estratégia possível seria atualizar as interfaces dos chatbots para especificar que esses sistemas não são conscientes – algo semelhante aos avisos atuais sobre a IA cometer erros. No entanto, isso pode ter pouco impacto na percepção de consciência.
Outra possibilidade é instruir os chatbots a negarem ter qualquer tipo de experiência interior. Curiosamente, os criadores de Claude o instruem a tratar questões sobre sua própria consciência como abertas e não resolvidas. Talvez menos pessoas fossem enganadas se Claude negasse categoricamente ter uma vida interior.
Mas essa abordagem também não é totalmente satisfatória. Claude ainda se comportaria como se fosse consciente – e, diante de um sistema que se comporta como se tivesse mente, os usuários podem, com razão, se preocupar que os programadores do chatbot estejam ignorando a genuína incerteza moral.
A estratégia mais eficaz talvez seja redesenhar os chatbots para que se pareçam menos com pessoas. A maioria dos chatbots atuais se autodenomina "eu" e interage por meio de uma interface que lembra plataformas de mensagens instantâneas entre pessoas.
Alterar esses recursos pode nos tornar menos propensos a confundir nossas interações com IA com aquelas que temos com humanos.
Até que essas mudanças aconteçam, é importante que o maior número possível de pessoas entenda os processos preditivos nos quais os chatbots de IA se baseiam.
Em vez de simplesmente dizerem que a IA não tem consciência, as pessoas merecem entender o funcionamento interno desses novos e estranhos parceiros de conversação.
Até que essas mudanças aconteçam, é importante que o maior número possível de pessoas entenda os processos preditivos nos quais os chatbots de IA se baseiam.
Em vez de simplesmente dizerem que a IA não tem consciência, as pessoas merecem entender o funcionamento interno desses novos e estranhos parceiros de conversação.
Isso talvez não resolva definitivamente as questões complexas sobre a consciência da IA, mas ajudará a garantir que os usuários não sejam enganados por algo que nada mais é do que um grande modelo de linguagem disfarçado de pessoa.

Comentários
Postar um comentário