A inteligência artificial vai mudar as relações humanas?

Polêmica sobre robô do Google que é capaz de conversar levanta pontos importantes na nossa relação com as máquinas —e as pessoas

No início de junho, um engenheiro do Google causou polêmica ao afirmar que o sistema de inteligência artificial da empresa (batizado de LaMDA, que é a sigla em inglês para Modelo de Linguagem para Aplicativos de Diálogo) era um ser senciente, capaz de perceber seus sentidos e de ter consciência. O Google negou as afirmações e afastou o engenheiro de suas funções.

A dúvida, entretanto, ficou no ar. Será que estamos perto do dia em que os computadores terão consciência, sentimentos e autonomia? Serão as máquinas capazes de desobedecer aos comandos humanos, como acontece no filme “2001 – Uma Odisseia no Espaço”?

Especialistas na área acreditam que não. Eles dizem que o LaMDA é um cérebro artificial, em nuvem, que aprende a “conversar”, e não a pensar ou a sentir. Funciona assim: a máquina recebe milhões de textos, aprende a colocar as palavras em contexto e a elaborar um diálogo —mas parece mais um papagaio do que um ser humano.

“O aprendizado tem um objetivo, que é apresentado na forma de um jogo. Ela tem uma frase completa, mas falta uma palavra, e o sistema precisa adivinhá-la”, explica à BBC Julio Gonzalo Arroyo, professor da Uned (Universidade Nacional de Educação a Distância), da Espanha, e pesquisador do departamento de processamento de linguagem natural e recuperação de informações.

As máquinas são capazes de identificar o significado de uma palavra e observar as outras que estão em um texto em torno dela. Dessa forma, aprendem a prever padrões e palavras da mesma maneira que observamos na previsão de texto dos apps de mensagem no celular, só que com muito mais memória.


O LaMDA, especificamente, aprende a criar respostas espontâneas, que não pareçam ter saído de um robô programado para dizer frases fixas. Além disso, é capaz de reconhecer as nuances de uma conversa, pois, depois de aprender bilhões de palavras, a máquina percebe quais são as mais adequadas para usar em cada contexto.

Humanizando a máquina

Segundo um artigo do Washington Post, a maioria dos pesquisadores da área diz que as respostas geradas por sistemas de inteligência artificial, como o LaMDA, são baseadas no que os humanos já postaram na Wikipedia, no Reddit, em quadros de mensagens e em outros cantos da internet. E isso não significa que a máquina entenda o significado das frases que diz.

“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse ao jornal Emily M. Bender, professora de linguística da Universidade de Washington. 

Para o Google, não faz sentido usar esses modelos conversacionais para considerar a máquina um ser senciente, pois os sistemas imitam diálogos encontrados em milhões de frases. Ou seja, existem tantos dados alimentando a IA que ela não precisa ser senciente para a gente sentir que essa conversa é real.

Por isso, outros especialistas dizem que a questão não é a máquina ser ou não senciente —e sim como nós, humanos, reagimos a essa interação quando pensamos que o robô é “gente como a gente”, aponta um artigo publicado na Wired. Você seria capaz de se abrir com uma inteligência artificial na forma de terapeuta? Ou de namorada, como no filme “Ela”?

As consequências para as relações humanas

No futuro, quando a IA começar a ter conversas mais profundas conosco, será preciso ter cuidado com o que falamos, pois esses dados serão compartilhados com a empresa que criou o robô terapeuta (ou namorada). E poderiam até mesmo alimentar a linguagem usada por um “eu” digital solto no metaverso falando igualzinho ao ser humano original. 

Por um lado, tratar a máquina com esse nível de empatia pode nos levar a revelar informações demais. Por outro, tratá-la como um ser desimportante, ou como um objeto, pode afetar a maneira como tratamos os outros seres humanos, apontam os pesquisadores Jason Edward Lewis, Noelani Arista, Archer Pechawis e Suzanne Kite na Wired.

Eles acham mais interessante pensarmos de que forma nos relacionamos com essas máquinas, se estamos, por exemplo, sendo abusivos ou sexistas com os assistentes virtuais (que em grande parte são femininos). 

Afinal, se nos acostumarmos, no dia a dia, a abordar os robôs de uma maneira desrespeitosa, isso pode nos levar a agir assim com outros seres humanos. “Um chatbot ou assistente virtual humano deve ser respeitado, para que seu próprio simulacro de humanidade não nos habitue à crueldade com humanos reais”, aponta o artigo.

Esse conteúdo foi útil para você?
SimNão

Publicações relacionadas