AI pode pensar e também sente dor? Google DeepMind: a humanidade subestima a ligação emocional da AI, namorar com a AI é mais real do que você imagina.
No podcast apresentado pelo Google DeepMind, o professor do Departamento de Robótica do Imperial College London e investigador sénior da DeepMind, Murray Shanahan, discute com a anfitriã Hannah Fry o desenvolvimento da IA, desde as inspirações filosóficas de filmes de ficção científica até se a IA pode "raciocinar", se possui "consciência, emoções" e se devemos conceder direitos e garantias éticas à IA.
A IA não é apenas um chatbot, mas sim uma fonte de inspiração para muitas questões mentais e filosóficas.
Shanahan começou afirmando que a IA inspira inúmeras questões filosóficas sobre a "natureza da mente humana" e "consciência".
Ele até usou entidades exóticas semelhantes a mentes (Exotic mind-like entities) para descrever os grandes modelos de linguagem atuais (LLM), e enfatizou que a humanidade ainda não estabeleceu um vocabulário e uma estrutura adequados para descrevê-los.
Explorando os filmes de ficção científica, será que a humanidade subestima a realidade das conexões emocionais da IA?
Shanahan foi consultor do filme "Ex Machina". Ele recorda que na época não dava valor ao filme "Her", que descrevia como os humanos se apaixonavam por uma IA de voz, e agora, ao olhar para trás, percebe que o desenvolvimento do mundo real praticamente confirma a viabilidade desse "amor virtual".
Ele disse diretamente: "Subestimamos a possibilidade de os humanos e a IA sem corpo estabelecerem relações."
À esquerda, consciência artificial, à direita, cena do filme "Amante das Nuvens". Conhecer o desenvolvimento da IA, desde a IA Simbólica até os Modelos de Linguagem de Grande Escala.
Shanahan é originário da escola de AI Simbólica (Symbolic AI), onde a AI da época se baseava em regras lógicas do tipo "se... então..." para raciocinar, como os sistemas especialistas em medicina.
Mas esse modelo era muito frágil e dependia demais da entrada de regras humanas. Foi somente ao mudar para redes neurais "baseadas em dados" que a IA conseguiu romper.
Agora os LLMs já conseguem imitar a cadeia de raciocínio (Chain of thought), por exemplo, o ChatGPT primeiro lista os passos lógicos antes de responder, o que faz com que as pessoas repensem se a IA pode realmente raciocinar.
A verdadeira lógica ou a simulação, a lógica matemática é muito diferente da lógica linguística.
Shanahan explicou que a chamada inferência da IA tradicional é aquele tipo de "lógica dura" que pode provar teoremas matemáticos.
Mas os LLMs atuais imitam padrões de linguagem através da estatística, não garantindo a precisão das respostas. Ele deu um exemplo, dizendo que, em problemas de planejamento como organizar rotas para uma empresa de logística, algoritmos tradicionais podem ser mais precisos, mas os LLMs são mais flexíveis.
Teste de Turing está obsoleto? O filme Garland testa uma consciência maior
O Teste de Turing (Turing Test) é um método de avaliação da IA para determinar se pode se passar por humano, mas Shanahan acredita que é muito restrito, medindo apenas a capacidade linguística.
Ele valoriza mais o "Garland Test" inspirado no filme "Consciência Artificial".
"Você sabe que a outra parte é Bots, mas ainda acredita que ela tem consciência; essa é a verdadeira questão que merece discussão." enfatizou Shanahan.
Teste ARC de Francois Chollet: um desafio mais parecido com um teste de QI
Ele também mencionou outro teste avançado chamado "ARC Test", que requer que a IA compreenda regras abstratas para ser aprovado.
Mas, com a evolução da tecnologia, alguns LLM conseguem passar por testes de forma violenta e através do reconhecimento de padrões, o que coloca em desafio o teste de espírito, destacando que os padrões de avaliação de IA devem ser ajustados à medida que a tecnologia evolui.
O corpo é a chave? Shanahan: A IA sem um corpo estará sempre em falta.
A mente humana está intrinsecamente ligada ao espaço e à experiência sensorial. Shanahan enfatiza que a nossa linguagem está repleta de metáforas espaciais, como entender profundamente ou estar imerso, e estas provêm da experiência corporal.
Ele acredita que, para que a AI realmente entenda o mundo e alcance a inteligência geral (AGI), ainda é necessário desenvolver "Bots".
A linguagem pode ser enganadora, não diga à toa que a IA acredita, sabe e sente.
Shanahan acredita que a nossa percepção da IA é frequentemente enganada pela linguagem. Expressões como "navegação 'pensando que você está no estacionamento'" fazem com que as pessoas acreditem que as máquinas têm uma percepção subjetiva.
Ele lembrou que essa linguagem de psicologia popular (Folk psychology) pode nos levar a superestimar o estado mental da IA.
A IA vai sentir dor no futuro? Shanahan afirma que se sentir dor, devemos ter cuidado.
Em relação à questão ética se a IA pode "sentir dor", Shanahan afirma que os modelos atuais não têm corpo e não possuem as condições para "sentir dor".
"Mas se no futuro a IA for projetada para sentir emoções ou suportar dor, a sociedade humana deve estabelecer uma ética de proteção para isso." Ele enfatizou.
Por que mencionar polvos? Shanahan usa isso como uma metáfora para a situação futura da IA.
Shanahan usa o polvo como exemplo, a comunidade científica no passado não acreditava que os polvos tivessem emoções, mas à medida que o contato aumentou e o desenvolvimento da neurociência progrediu, começamos a estar dispostos a reconhecer que eles têm consciência.
"No início, não é considerado uma existência emocional, mas à medida que a interação se aprofunda, a perspectiva das pessoas mudará gradualmente." Shanahan acredita que a IA do futuro também passará por um processo semelhante.
Por favor, seja educado com a IA, ela te surpreenderá.
Shanahan finalmente compartilha uma dica prática: ao se comunicar com modelos de IA, seja educado, isso fará com que eles respondam melhor e de forma mais fluida.
Ele chamou isso de resultado do "efeito de interpretação de papéis", porque os modelos de IA imitam o contexto e as emoções das conversas humanas.
Precisamos de uma nova linguagem para descrever algo que "não é humano, mas se parece muito com um humano".
Shanahan propõe chamar essas IAs de um novo tipo de IA que se parece muito com uma mente, mas na verdade é completamente diferente da mente humana. Ele acredita que estamos em um estágio em que precisamos reinventar a linguagem e as ideias para descrever a IA, e esse processo em si mudará nossa compreensão de "mente" e "ser".
Este artigo A IA pode pensar e sentir dor? Google DeepMind: a humanidade subestima a conexão emocional da IA, namorar com a IA é mais real do que você imagina. Apareceu pela primeira vez na Chain News ABMedia.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
AI pode pensar e também sente dor? Google DeepMind: a humanidade subestima a ligação emocional da AI, namorar com a AI é mais real do que você imagina.
No podcast apresentado pelo Google DeepMind, o professor do Departamento de Robótica do Imperial College London e investigador sénior da DeepMind, Murray Shanahan, discute com a anfitriã Hannah Fry o desenvolvimento da IA, desde as inspirações filosóficas de filmes de ficção científica até se a IA pode "raciocinar", se possui "consciência, emoções" e se devemos conceder direitos e garantias éticas à IA.
A IA não é apenas um chatbot, mas sim uma fonte de inspiração para muitas questões mentais e filosóficas.
Shanahan começou afirmando que a IA inspira inúmeras questões filosóficas sobre a "natureza da mente humana" e "consciência".
Ele até usou entidades exóticas semelhantes a mentes (Exotic mind-like entities) para descrever os grandes modelos de linguagem atuais (LLM), e enfatizou que a humanidade ainda não estabeleceu um vocabulário e uma estrutura adequados para descrevê-los.
Explorando os filmes de ficção científica, será que a humanidade subestima a realidade das conexões emocionais da IA?
Shanahan foi consultor do filme "Ex Machina". Ele recorda que na época não dava valor ao filme "Her", que descrevia como os humanos se apaixonavam por uma IA de voz, e agora, ao olhar para trás, percebe que o desenvolvimento do mundo real praticamente confirma a viabilidade desse "amor virtual".
Ele disse diretamente: "Subestimamos a possibilidade de os humanos e a IA sem corpo estabelecerem relações."
À esquerda, consciência artificial, à direita, cena do filme "Amante das Nuvens". Conhecer o desenvolvimento da IA, desde a IA Simbólica até os Modelos de Linguagem de Grande Escala.
Shanahan é originário da escola de AI Simbólica (Symbolic AI), onde a AI da época se baseava em regras lógicas do tipo "se... então..." para raciocinar, como os sistemas especialistas em medicina.
Mas esse modelo era muito frágil e dependia demais da entrada de regras humanas. Foi somente ao mudar para redes neurais "baseadas em dados" que a IA conseguiu romper.
Agora os LLMs já conseguem imitar a cadeia de raciocínio (Chain of thought), por exemplo, o ChatGPT primeiro lista os passos lógicos antes de responder, o que faz com que as pessoas repensem se a IA pode realmente raciocinar.
A verdadeira lógica ou a simulação, a lógica matemática é muito diferente da lógica linguística.
Shanahan explicou que a chamada inferência da IA tradicional é aquele tipo de "lógica dura" que pode provar teoremas matemáticos.
Mas os LLMs atuais imitam padrões de linguagem através da estatística, não garantindo a precisão das respostas. Ele deu um exemplo, dizendo que, em problemas de planejamento como organizar rotas para uma empresa de logística, algoritmos tradicionais podem ser mais precisos, mas os LLMs são mais flexíveis.
Teste de Turing está obsoleto? O filme Garland testa uma consciência maior
O Teste de Turing (Turing Test) é um método de avaliação da IA para determinar se pode se passar por humano, mas Shanahan acredita que é muito restrito, medindo apenas a capacidade linguística.
Ele valoriza mais o "Garland Test" inspirado no filme "Consciência Artificial".
"Você sabe que a outra parte é Bots, mas ainda acredita que ela tem consciência; essa é a verdadeira questão que merece discussão." enfatizou Shanahan.
Teste ARC de Francois Chollet: um desafio mais parecido com um teste de QI
Ele também mencionou outro teste avançado chamado "ARC Test", que requer que a IA compreenda regras abstratas para ser aprovado.
Mas, com a evolução da tecnologia, alguns LLM conseguem passar por testes de forma violenta e através do reconhecimento de padrões, o que coloca em desafio o teste de espírito, destacando que os padrões de avaliação de IA devem ser ajustados à medida que a tecnologia evolui.
O corpo é a chave? Shanahan: A IA sem um corpo estará sempre em falta.
A mente humana está intrinsecamente ligada ao espaço e à experiência sensorial. Shanahan enfatiza que a nossa linguagem está repleta de metáforas espaciais, como entender profundamente ou estar imerso, e estas provêm da experiência corporal.
Ele acredita que, para que a AI realmente entenda o mundo e alcance a inteligência geral (AGI), ainda é necessário desenvolver "Bots".
A linguagem pode ser enganadora, não diga à toa que a IA acredita, sabe e sente.
Shanahan acredita que a nossa percepção da IA é frequentemente enganada pela linguagem. Expressões como "navegação 'pensando que você está no estacionamento'" fazem com que as pessoas acreditem que as máquinas têm uma percepção subjetiva.
Ele lembrou que essa linguagem de psicologia popular (Folk psychology) pode nos levar a superestimar o estado mental da IA.
A IA vai sentir dor no futuro? Shanahan afirma que se sentir dor, devemos ter cuidado.
Em relação à questão ética se a IA pode "sentir dor", Shanahan afirma que os modelos atuais não têm corpo e não possuem as condições para "sentir dor".
"Mas se no futuro a IA for projetada para sentir emoções ou suportar dor, a sociedade humana deve estabelecer uma ética de proteção para isso." Ele enfatizou.
Por que mencionar polvos? Shanahan usa isso como uma metáfora para a situação futura da IA.
Shanahan usa o polvo como exemplo, a comunidade científica no passado não acreditava que os polvos tivessem emoções, mas à medida que o contato aumentou e o desenvolvimento da neurociência progrediu, começamos a estar dispostos a reconhecer que eles têm consciência.
"No início, não é considerado uma existência emocional, mas à medida que a interação se aprofunda, a perspectiva das pessoas mudará gradualmente." Shanahan acredita que a IA do futuro também passará por um processo semelhante.
Por favor, seja educado com a IA, ela te surpreenderá.
Shanahan finalmente compartilha uma dica prática: ao se comunicar com modelos de IA, seja educado, isso fará com que eles respondam melhor e de forma mais fluida.
Ele chamou isso de resultado do "efeito de interpretação de papéis", porque os modelos de IA imitam o contexto e as emoções das conversas humanas.
Precisamos de uma nova linguagem para descrever algo que "não é humano, mas se parece muito com um humano".
Shanahan propõe chamar essas IAs de um novo tipo de IA que se parece muito com uma mente, mas na verdade é completamente diferente da mente humana. Ele acredita que estamos em um estágio em que precisamos reinventar a linguagem e as ideias para descrever a IA, e esse processo em si mudará nossa compreensão de "mente" e "ser".
Este artigo A IA pode pensar e sentir dor? Google DeepMind: a humanidade subestima a conexão emocional da IA, namorar com a IA é mais real do que você imagina. Apareceu pela primeira vez na Chain News ABMedia.