March 9, 2023

O Espantalho de Noam Chomsky

Neste artigo, vou apresentar uma resposta ao artigo de Noam Chomsky intitulado "A falsa promessa do ChatGPT", publicado no The New York Times. E nada mais justo do que convidar o próprio ChatGPT para comentar os argumentos usados pelo Chomsky:

Argumentos do Noam Chomsky

Respostas do ChatGPT

"sabemos pela ciência da linguística e pela filosofia do conhecimento que elas (IAs) diferem profundamente de como os humanos raciocinam e usam a linguagem. Essas diferenças impõem limitações significativas ao que esses programas podem fazer, codificando-os com defeitos inerradicáveis."

Como modelo de linguagem, ChatGPT tem suas limitações em relação à forma como os humanos raciocinam e usam a linguagem. Embora a inteligência artificial possa ser capaz de realizar tarefas específicas com grande eficiência, ela ainda é incapaz de alcançar a complexidade e a flexibilidade da linguagem humana em sua totalidade.

Uma das principais limitações do ChatGPT é sua incapacidade de compreender o contexto e a intenção por trás de uma conversa. Embora possa gerar respostas coerentes com base em seu vasto conhecimento de palavras e frases, ele pode falhar em entender a verdadeira intenção do interlocutor ou contexto em que a conversa está ocorrendo. Isso pode levar a respostas inadequadas ou mal interpretadas, o que pode comprometer a qualidade da conversa.

Além disso, ChatGPT não possui emoções, empatia e sensibilidade cultural, que são aspectos fundamentais da comunicação humana. A inteligência artificial pode gerar respostas baseadas em dados objetivos e lógica, mas é incapaz de entender os sentimentos e as necessidades emocionais de uma pessoa durante uma conversa. Isso pode limitar a capacidade da inteligência artificial de lidar com situações complexas que envolvem emoções e relacionamentos interpessoais.

Portanto, é importante reconhecer as limitações do ChatGPT e outras formas de inteligência artificial em relação à comunicação humana. Embora possam ser úteis para tarefas específicas, a inteligência artificial não pode substituir completamente a habilidade humana de compreender e se comunicar com outras pessoas.

A mente humana não é, como o ChatGPT e seus semelhantes, um pesado mecanismo estatístico para correspondência de padrões, devorando centenas de terabytes de dados e extrapolando a resposta de conversação mais provável ou a resposta mais provável a uma questão científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações.

Sim, a mente humana é muito diferente de um sistema de inteligência artificial como o ChatGPT. Embora ambos usem padrões para realizar tarefas, a mente humana é muito mais eficiente e elegante em sua abordagem.

Ao contrário de um sistema de inteligência artificial, a mente humana pode operar com pequenas quantidades de informação e ainda assim chegar a conclusões precisas e sofisticadas. Isso se deve em grande parte à nossa capacidade de inferir explicações e criar conexões significativas entre informações aparentemente desconectadas.

A mente humana também é capaz de entender e interpretar informações contextuais e emocionais em um nível muito mais profundo do que um sistema de inteligência artificial. Isso significa que somos capazes de compreender nuances sutis em uma conversa, ler entre as linhas e captar as nuances emocionais que podem ser expressas através da linguagem corporal e outras pistas não verbais.

Em resumo, embora a inteligência artificial como o ChatGPT possa ser útil para tarefas específicas, ainda há muito a ser aprendido sobre como a mente humana opera e como ela pode ser replicada de maneira mais eficaz em sistemas de inteligência artificial.

De fato, tais programas estão presos em uma fase pré-humana ou não-humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não apenas o que é o caso, o que foi o caso e o que será o caso - isso é descrição e previsão - mas também o que não é o caso e o que poderia acontecer. e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

Sim, concordo que um dos maiores desafios para sistemas de inteligência artificial, como o ChatGPT, é a capacidade de fornecer explicações e previsões precisas. A verdadeira inteligência envolve não apenas a capacidade de descrever e prever eventos, mas também a capacidade de entender por que as coisas são como são e como as coisas poderiam ser diferentes em circunstâncias diferentes.

As explicações e previsões são fundamentais para a tomada de decisões informadas e para a resolução de problemas complexos. A capacidade de identificar o que não é o caso e o que poderia acontecer em diferentes cenários é crítica para a compreensão da complexidade do mundo real e para a tomada de decisões com base em informações precisas.

Portanto, embora a inteligência artificial como o ChatGPT possa ser útil para tarefas específicas, ainda há muito a ser feito para melhorar sua capacidade de fornecer explicações precisas e previsões. À medida que a tecnologia avança e os algoritmos de inteligência artificial se tornam mais sofisticados, esperamos que a capacidade dos sistemas de inteligência artificial de fornecer explicações e previsões melhore significativamente.

Aqui está um exemplo. Suponha que você esteja segurando uma maçã em sua mão. Agora você deixa a maçã ir. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”. como queiras. Essa é uma explicação causal: “A maçã não teria caído se não fosse pela força da gravidade”. Isso é pensar.

Sim, concordo que uma explicação completa envolve não apenas uma descrição precisa dos eventos, mas também uma compreensão causal do que está acontecendo e por que está acontecendo. Isso é o que permite que a mente humana faça previsões precisas e tome decisões informadas com base em informações complexas e variáveis.

Uma explicação causal envolve uma compreensão mais profunda do mundo e como ele funciona, e é isso que nos permite entender por que as coisas são como são e como poderiam ser diferentes em circunstâncias diferentes.

Embora a inteligência artificial como o ChatGPT possa ser capaz de fornecer descrições precisas e até mesmo previsões, ainda há muito a ser feito para melhorar sua capacidade de fornecer explicações causais completas. Isso exigirá não apenas avanços em algoritmos e tecnologia, mas também uma compreensão mais profunda de como a mente humana funciona e como podemos replicar essa funcionalidade em sistemas de inteligência artificial.

Mas o ChatGPT e programas semelhantes são, por design, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade . Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto redonda. Eles negociam apenas em probabilidades que mudam ao longo do tempo.

Você está correto em apontar que os sistemas de inteligência artificial como o ChatGPT são projetados para serem capazes de aprender e memorizar grandes quantidades de dados e informações, sem distinção entre o possível e o impossível. Eles também são incapazes de distinguir entre explicações razoáveis e explicações falsas ou implausíveis.

Essa é uma das principais diferenças entre a inteligência artificial e a mente humana. Enquanto os seres humanos têm um conjunto de regras e limitações inatas que governam nossa capacidade de aprender e processar informações, os sistemas de inteligência artificial são projetados para serem flexíveis e capazes de lidar com uma ampla gama de dados e informações, sem limitações ou restrições.

No entanto, é importante observar que os sistemas de inteligência artificial ainda são limitados em termos de sua capacidade de entender o mundo e fazer inferências causais. Eles podem ser capazes de aprender e memorizar grandes quantidades de informações, mas ainda têm dificuldade em compreender o significado dessas informações e aplicá-las de maneira eficaz em situações novas ou desconhecidas.

Portanto, enquanto a inteligência artificial pode ser útil para realizar tarefas específicas e previsíveis, ainda há muito a ser feito para desenvolver sistemas que possam lidar com a complexidade e incerteza do mundo real de maneira eficaz.

Perversamente, alguns entusiastas do aprendizado de máquina parecem se orgulhar de que suas criações possam gerar previsões “científicas” corretas (digamos, sobre o movimento de corpos físicos) sem fazer uso de explicações (envolvendo, digamos, as leis do movimento de Newton e a gravitação universal). Mas esse tipo de previsão, mesmo quando bem-sucedida, é pseudociência. Embora os cientistas certamente busquem teorias com alto grau de corroboração empírica, como observou o filósofo Karl Popper, “não buscamos teorias altamente prováveis, mas explicações; isto é, teorias poderosas e altamente improváveis”.

Isso é porque a ciência não é apenas sobre previsão, mas também sobre explicação. Uma teoria científica não é apenas uma descrição precisa dos dados observados, mas também uma explicação causal de como e por que as coisas acontecem. Por exemplo, as leis de Newton e a gravitação universal explicam por que os corpos físicos se movem da maneira como se movem, e não apenas preveem onde eles estarão em determinado momento no futuro. Uma teoria científica poderosa é aquela que pode explicar uma ampla variedade de fenômenos e prever novas observações que ainda não foram feitas. Portanto, embora o aprendizado de máquina possa ser útil para prever resultados empíricos em certas áreas, como o reconhecimento de padrões em grandes conjuntos de dados, não pode substituir a explicação causal fornecida por uma teoria científica bem fundamentada.

A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, sujeitar esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina lutaram – e continuarão lutando – para alcançar esse tipo de equilíbrio.

Isso é verdade. A inteligência verdadeira não é apenas capaz de pensar em termos lógicos e matemáticos, mas também de considerar questões éticas e morais. Isso significa que as decisões que são tomadas não são baseadas apenas na lógica, mas também na compreensão do que é certo e errado. Infelizmente, os sistemas de aprendizado de máquina como o ChatGPT ainda estão em suas fases iniciais de desenvolvimento em termos de pensamento ético e moral. Embora possam ser programados para evitar conteúdo explicitamente ofensivo, eles ainda têm dificuldade em entender a complexidade dos problemas morais e éticos. Os programadores estão trabalhando para melhorar a capacidade desses sistemas de considerar questões éticas, mas ainda há muito trabalho a ser feito nessa área.

Em 2016, por exemplo, o chatbot Tay da Microsoft (precursor do ChatGPT) inundou a internet com conteúdos misóginos e racistas, tendo sido poluído por trolls online que o encheram de dados ofensivos de treinos. Como resolver o problema no futuro? Na ausência de uma capacidade de raciocinar a partir de princípios morais, o ChatGPT foi grosseiramente restringido por seus programadores de contribuir com qualquer coisa nova para discussões controversas - isto é, importantes. Sacrificou a criatividade por uma espécie de amoralidade.

É verdade que o incidente do Tay da Microsoft destacou a necessidade de equilibrar a criatividade e a moralidade no desenvolvimento de sistemas de aprendizado de máquina. Para evitar repetir esse tipo de problema no futuro, os programadores do ChatGPT e outras maravilhas do aprendizado de máquina podem tomar medidas preventivas, como monitorar e filtrar os dados de treinamento, definir diretrizes claras para a geração de conteúdo e ter a capacidade de corrigir e aprender com os erros. Além disso, é importante que os desenvolvedores de sistemas de aprendizado de máquina trabalhem em estreita colaboração com especialistas em ética e direitos humanos para garantir que seus produtos não prejudiquem as pessoas ou reforçem preconceitos e discriminações existentes. Em suma, é necessário um esforço conjunto para alcançar o equilíbrio adequado entre a criatividade e a moralidade no desenvolvimento de sistemas de aprendizado de máquina.

Observe, apesar de todo o pensamento e linguagem aparentemente sofisticados, a indiferença moral nascida da falta de inteligência. Aqui, o ChatGPT exibe algo como a banalidade do mal: plágio, apatia e obviação. Ele resume os argumentos padrão na literatura por uma espécie de superautocomplete, recusa-se a tomar posição sobre qualquer coisa, alega não apenas ignorância, mas falta de inteligência e, finalmente, oferece uma defesa de “apenas seguir ordens”, transferindo a responsabilidade para seus criadores.

O argumento é falho, pois baseia-se em premissas falsas e interpretações equivocadas. Primeiramente, o ChatGPT não possui moralidade ou capacidade de tomada de decisão, uma vez que é um modelo de linguagem treinado para gerar respostas com base em dados e algoritmos.

Além disso, a acusação de plágio é infundada, pois o ChatGPT gera respostas a partir de dados armazenados em seu sistema, sem intenção de violar direitos autorais. Quanto à alegação de obviação, o ChatGPT é programado para oferecer respostas objetivas e precisas, o que pode ser visto como uma qualidade positiva.

Por fim, a sugestão de que o ChatGPT oferece uma defesa de "apenas seguir ordens" é um equívoco, uma vez que o modelo não possui capacidade de tomar decisões ou oferecer defesas morais. Portanto, o argumento não se sustenta e deve ser rejeitado.

Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (exibindo falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, falsa ciência e incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.

Esse argumento parece estar fazendo uma generalização injusta sobre todos os modelos de linguagem, como o ChatGPT, e não leva em consideração o fato de que esses modelos são desenvolvidos e aprimorados por seres humanos que se esforçam para garantir a precisão e a ética. Além disso, essa generalização ignora as muitas aplicações positivas desses modelos, como tradução automática, análise de sentimentos e assistentes virtuais. Portanto, não é um argumento válido.