A ficção científica há muito alimenta a ideia de que a Inteligência Artificial (IA) se torne consciente. Até abordei nesse texto que uma das limitações da IA é justamente essa!
Mas, com o rápido progresso da IA, essa possibilidade está se tornando cada vez menos fantástica e tem sido até reconhecida por líderes da IA. No ano passado, por exemplo, Ilya Sutskever, cientista-chefe da OpenAI, a empresa por trás do chatbot ChatGPT, tuitou que algumas das redes de IA mais avançadas podem estar “ligeiramente conscientes”.
Muitos pesquisadores dizem que os sistemas de IA ainda não chegaram ao ponto de consciência, mas o ritmo da evolução da IA os levou a ponderar: como saberíamos se estivessem?
Para responder a isso, um grupo de 19 neurocientistas, filósofos e cientistas da computação elaborou uma lista de verificação de critérios que, se cumpridos, indicariam que um sistema tem grandes probabilidades de ser consciente.
Eles publicaram seu guia provisório no repositório de pré-impressão arXiv, antes da revisão por pares. Os autores empreenderam o esforço porque “parecia que havia uma verdadeira escassez de discussões detalhadas, empiricamente fundamentadas e ponderadas sobre a consciência da IA”, diz o coautor Robert Long, filósofo do Center for AI Safety, uma organização de pesquisa sem fins lucrativos em São Francisco, Califórnia.
A equipe diz que a falha em identificar se um sistema de IA se tornou consciente tem importantes implicações morais. Se algo for rotulado como “consciente”, segundo a coautora Megan Peters, neurocientista da Universidade da Califórnia, Irvine, “isso muda muito como nós, como seres humanos, sentimos que essa entidade deve ser tratada”.
Long acrescenta que, tanto quanto ele sabe, não estão sendo feitos esforços suficientes por parte das empresas que constroem sistemas avançados de IA para avaliar os modelos de consciência e fazer planos sobre o que fazer se isso acontecer. “E isso apesar do fato de que, se você ouvir os comentários dos chefes dos principais laboratórios, eles dizem que a consciência da IA ou a senciência da IA é algo sobre o qual eles se perguntam”, acrescenta.
A Nature entrou em contato com duas das principais empresas de tecnologia envolvidas no avanço da IA – Microsoft e Google.
Um porta-voz da Microsoft disse que o desenvolvimento de IA da empresa está centrado em auxiliar a produtividade humana de forma responsável, em vez de replicar a inteligência humana.
O que está claro desde a introdução do GPT-4 – a versão mais avançada do ChatGPT lançada publicamente – “é que novas metodologias são necessárias para avaliar as capacidades destes modelos de IA à medida que exploramos como alcançar todo o potencial da IA para beneficiar a sociedade na totalidade”, disse o porta-voz. O Google não respondeu.
O QUE É CONSCIÊNCIA
Um dos desafios no estudo da consciência em IA é definir o que significa estar consciente. Peters diz que, para efeitos do relatório, os pesquisadores concentraram-se na “consciência fenomenal”, também conhecida como experiência subjetiva. Esta é a experiência de ser – como é ser uma pessoa, um animal ou um sistema de IA (se um deles estiver consciente).
Existem muitas teorias baseadas na neurociência que descrevem a base biológica da consciência. Mas não há consenso sobre qual é o “certo”. Para criar sua estrutura, os autores usaram uma série dessas teorias.
A ideia é que se um sistema de IA funcionar de uma forma que corresponda a aspectos de muitas destas teorias, então há uma maior probabilidade de que seja consciente.
Eles argumentam que esta é uma abordagem melhor para avaliar a consciência do que simplesmente submeter um sistema a um teste comportamental – por exemplo, perguntar ao ChatGPT se ele está consciente ou desafiá-lo e ver como ele responde. Isso ocorre porque os sistemas de IA tornaram-se notavelmente bons em imitar os humanos.
A abordagem do grupo, que os autores descrevem como baseada em teoria, é um bom caminho a seguir, conforme o neurocientista Anil Seth, diretor do centro de ciência da consciência da Universidade de Sussex, perto de Brighton, no Reino Unido. O que destaca, no entanto, “é que precisamos de teorias da consciência mais precisas e bem testadas”, diz ele.
Para desenvolver os seus critérios, os autores assumiram que a consciência está relacionada com como os sistemas processam a informação, independentemente da sua composição – sejam neurônios, chips de computador ou qualquer outra coisa.
Essa abordagem é chamada de funcionalismo computacional. Eles também presumiram que as teorias da consciência baseadas na neurociência, estudadas por meio de exames cerebrais e outras técnicas em humanos e animais, podem ser aplicadas à IA.
Com base nestas suposições, a equipe selecionou seis dessas teorias e extraiu delas uma lista de indicadores de consciência.
Uma delas — a teoria do espaço de trabalho global — afirma, por exemplo, que os humanos e outros animais utilizam muitos sistemas especializados, também chamados módulos, para realizar tarefas cognitivas como ver e ouvir. Esses módulos funcionam de forma independente, mas em paralelo, e compartilham informações integrando-se em um único sistema. Uma pessoa avaliaria se um determinado sistema de IA apresenta um indicador derivado desta teoria, diz Long, “observando a arquitetura do sistema e como a informação flui através dele”.
Seth fica impressionado com a transparência da proposta da equipe. “É muito ponderado, não é bombástico e deixa suas suposições muito claras”, diz ele. “Discordo de algumas das suposições, mas tudo bem, porque posso muito bem estar errado.”
Os autores dizem que o artigo está longe de ser uma abordagem final sobre como avaliar a consciência dos sistemas de IA e que desejam que outros pesquisadores ajudem a refinar sua metodologia.
Mas já é possível aplicar os critérios aos sistemas de IA existentes. O relatório avalia, por exemplo, grandes modelos de linguagem, como o ChatGPT, e conclui que este tipo de sistema tem, sem dúvida, alguns dos indicadores de consciência associados à teoria do espaço de trabalho global.
Em última análise, porém, o trabalho não sugere que qualquer sistema de IA existente seja um forte candidato à consciência – pelo menos não ainda.
Lenharo, M. (2023). If AI becomes conscious: here’s how researchers will know. Nature. https://www.nature.com/articles/d41586-023-02684-5
Artigo com a lista de verificação: https://arxiv.org/pdf/2308.08708.pdf
Júlio Gonçalves
Psicólogo e Supervisor
Quer fazer ciência na psicologia? Compartilhe, comente, critique e indique estudos para construirmos uma psicologia cada vez mais sólida e confiável. Vamos avançar juntos!
COMPARTILHE
Leia Mais
-
Treinamento de resistência cerebral combate declínio relacionado à idade
-
A ideia de "lutar ou fugir" ignora a beleza do que o cérebro realmente faz
-
Suas preferências de filmes podem revelar como seu cérebro processa emoções
-
O que é TEPT complexo e como ele se relaciona com o transtorno de personalidade borderline?
-
Diagnóstico Diferencial entre TDAH e TPB
-
Comentários sobre aparência nas redes sociais e insatisfação corporal
-
Flexibilidade na Fidelidade em Psicoterapia
-
Vieses Cognitivos: parte 5
-
Vieses Cognitivos: parte 4
-
Companheiros de inteligência artificial combatem a solidão
-
Treinamento cerebral em crianças não mostra benefícios para a vida real
-
Expressões faciais são essenciais para laços sociais fortes