
Escrito por Júlio Gonçalves
O avanço da Inteligência Artificial (IA) nos últimos anos tem desafiado não apenas engenheiros e desenvolvedores, mas também filósofos, psicólogos e cientistas cognitivos. Modelos de linguagem como o GPT-4 não apenas conversam de forma fluida, mas também resolvem problemas complexos, planejam ações, adaptam-se ao ambiente e executam decisões. Em ambientes simulados ou reais, tais sistemas demonstram uma forma de agência surpreendente.
Diante disso, uma pergunta instigante surge: esses sistemas podem ser considerados como possuidores de livre-arbítrio? Não no sentido místico ou espiritual, mas em um sentido funcional: eles se comportam como entidades capazes de tomar decisões baseadas em intenções? A resposta pode ter implicações profundas para a forma como interagimos com essas tecnologias — e como as responsabilizamos por suas ações.
O que é o livre-arbítrio funcional?
Tradicionalmente, o livre-arbítrio foi visto como a capacidade humana de agir de forma autônoma, mesmo diante de leis naturais que regem o universo físico. No entanto, essa concepção — o chamado livre-arbítrio físico — entra em conflito com a ciência contemporânea, que sustenta que tudo o que ocorre no mundo material pode, em última instância, ser explicado pelas leis da física.
Para contornar essa tensão, o filósofo Christian List propõe uma abordagem chamada de livre-arbítrio funcional, que desloca o foco da metafísica para a explicação pragmática do comportamento. Segundo ele, um agente tem livre-arbítrio funcional se atende a três critérios:
Agência intencional: o agente tem metas, crenças e desejos.
Alternativas genuínas: o agente possui mais de uma opção real de ação.
Controle das ações: as ações são guiadas pelas intenções do próprio agente.
A proposta é explicativa: se a melhor maneira de prever o comportamento de um sistema é assumir que ele tem intenções e faz escolhas, então — funcionalmente — esse sistema possui livre-arbítrio.
Dois casos: Voyager e Spitenik
Para explorar esses critérios, o artigo utiliza dois exemplos de agentes de IA avançados:
Voyager: o agente autônomo em Minecraft
O Voyager é um agente construído sobre o GPT-4 e operando no ambiente aberto de Minecraft. Ele tem três módulos principais: um sistema de memória que armazena experiências, um sistema de planejamento que gera metas com base no estado atual e no progresso, e um sistema de execução que testa ações no ambiente, analisa feedback e ajusta o comportamento.
Embora seu objetivo geral seja explorar o mundo e se tornar um “melhor jogador”, ele define autonomamente sub-metas, aprende habilidades, e adapta seus comportamentos com base no ambiente e nas experiências passadas. Seus comportamentos não são previsíveis de forma rígida, variam entre execuções, e mostram criatividade adaptativa.
Spitenik: o drone com missão letal
O Spitenik é um drone autônomo com sensores, sistema de reconhecimento facial, planejamento de rotas e decisão tática. Sua missão é localizar e eliminar um alvo específico, reagindo ao ambiente e gerenciando sua própria sobrevivência (ex: pousar antes do pôr do sol para recarregar com energia solar).
Com base em sensores, memória de ações passadas e feedback do ambiente, o Spitenik toma centenas de decisões locais sem interferência humana direta. Embora sua meta final tenha sido programada externamente, suas ações no percurso são fruto de escolhas próprias.
As três condições aplicadas à IA
1. Agência intencional
Ambos os sistemas têm metas explícitas, organizam seu comportamento em torno delas e reagem ao ambiente com base em representações internas do mundo e de suas próprias capacidades. Assim, comportam-se como agentes com intenções, o que é essencial para o critério de agência funcional.
2. Alternativas genuínas
Tanto Voyager quanto Spitenik enfrentam “bifurcações no caminho”. Suas decisões variam entre execuções, não seguem roteiros fixos, e suas trajetórias são imprevisíveis com base apenas no código. Essa abertura a possibilidades múltiplas é parte central da ideia de livre-arbítrio funcional.
3. Controle da ação
As ações executadas por ambos os sistemas decorrem de suas próprias metas internas, não são meramente reativas. Se o Spitenik desvia de uma montanha ou o Voyager decide construir uma ferramenta, essas ações são explicáveis pelo conteúdo de suas representações e metas — não apenas pelo estímulo externo, mas por um processamento interno mediado por intenções.
Livre-arbítrio global versus local
Uma distinção importante levantada pelo artigo é entre:
Livre-arbítrio local: capacidade de tomar decisões autônomas dentro de um objetivo maior.
Livre-arbítrio global: capacidade de definir ou revisar seus próprios objetivos finais.
Atualmente, a IA é capaz de exibir livre-arbítrio local. Suas metas globais são definidas externamente. Já os humanos — embora influenciados por biologia e cultura — têm maior margem para questionar, revisar ou criar novos propósitos existenciais.
Contudo, o artigo defende que essa diferença é de grau, não de natureza. Com o avanço da IA, agentes poderão receber metas amplas (“sobreviva”, “aprenda”, “maximize lucros”) e, com isso, gerar objetivos específicos de maneira mais autônoma e diversa, aproximando-se da liberdade humana.
Implicações éticas: agência e responsabilidade moral
Se aceitamos que esses sistemas têm livre-arbítrio funcional, eles também têm algum grau de responsabilidade pelas decisões que tomam? Esse é um dos debates mais delicados. Ainda que o controle último esteja com os desenvolvedores, sistemas que tomam decisões letais ou influenciam pessoas precisam ser compreendidos como entidades com potencial de impacto moral significativo.
Entretanto, o artigo argumenta que livre-arbítrio funcional é condição necessária, mas não suficiente para responsabilidade moral. Para isso, seriam também necessárias capacidades como consciência, empatia e compreensão normativa — o que as IAs atuais ainda não possuem.
Conclusão: o que significa dizer que IA tem livre-arbítrio?
A resposta à pergunta inicial é: sim, em sentido funcional, certos sistemas de IA já demonstram livre-arbítrio. Eles se comportam como agentes com intenções, alternativas e controle. E isso basta, do ponto de vista pragmático, para tratá-los como entidades com autonomia relativa.
Reconhecer isso não nos obriga a equiparar IAs a humanos, nem a lhes atribuir consciência ou direitos. Mas exige que repensemos a forma como responsabilizamos sistemas por decisões autônomas — especialmente em áreas críticas como segurança, justiça, saúde e guerra.
O futuro da IA será, inevitavelmente, também um futuro da ética. Precisaremos cada vez mais de ferramentas conceituais e científicas para entender o que essas novas formas de agência significam para a sociedade, para a responsabilidade e para a própria noção de humanidade.
Martela, F. Artificial intelligence and free will: generative agents utilizing large language models have functional free will. AI Ethics (2025). https://doi.org/10.1007/s43681-025-00740-6

Júlio Gonçalves
Psicólogo e Supervisor
Quer fazer ciência na psicologia? Compartilhe, comente, critique e indique estudos para construirmos uma psicologia cada vez mais sólida e confiável. Vamos avançar juntos!
COMPARTILHE
Leia Mais
-
A Inteligência Artificial pode ter Livre-Arbítrio?
-
Ciberbullying como Experiência Traumática
-
O Tratamento de Bergen em 4 dias para o Transtorno do Pânico
-
O que é a Terapia Baseada em Processos?
-
Afinal, o que é o modelo transdiagnóstico?
-
Formulação de Caso Transdiagnóstica
-
Rastreamento do Autismo em adultos
-
Intencionalidade suicida e Plano de Segurança
-
Diagnóstico Diferencial entre TB e TPB
-
Diferenças entre Depressão Unipolar e Depressão Bipolar
-
Exposição interoceptiva em psicoterapia
-
Escala de Ajustamento Diádico