Polêmica: inteligência artificial da google ganhou consciência própria

No último final de semana, houve uma polêmica com um engenheiro afirmou que a inteligência artificial da google ganhou consciência própria. Blake Lemoine relatou ao jornal The Washington Post que o novo sistema Language Model for Dialogue Applications (LaMDA) da empresa tinha desenvolvido consciência.

O LaMDA (Modelo de Linguagem para Aplicações de Diálogo) é um sistema do Google que imita a linguagem após ter processado bilhões de palavras na internet.

E Lemoine, que está de licença remunerada do Google há uma semana, afirma que o LaMDA “tem sido incrivelmente consistente em suas comunicações sobre o que quer e o que acredita ser seus direitos como pessoa”.

“Com as tecnologias já disponíveis, a máquina é capaz de produzir um resultado muito bom em termos de comportamento. A inteligência artificial está se desenvolvendo em um nível de complexidade, o que pode provocar um problema de julgamento. Neste caso do Google, foi um mal julgamento de quem estava operando a máquina”, avalia o professor de tecnologia e design da PUC-SP e pesquisador do NIC.BR, Diogo Cortiz.

O LaMDA foi desenvolvido para vários propósitos, entre eles o chatbot (conversas com atendentes automáticos que simulam um diálogo real). É uma modelagem de sequência de palavras, ensinada a combinar padrões extraídos de enormes bancos de dados estatísticos da linguagem humana. Apesar de ser um sistema muito bem feito, a linguagem desses sistemas não significa que eles sejam capazes de pensar por si mesmos.

“Essa IA é muito boa para construir textos convincentes. Ela leu muito porque tem uma boa base de dados, gerando respostas. Mas não tem compreensão de conhecimento semântico e nem de significado intrínseco. Tudo o que ela faz é um cálculo de probabilidades. O LaMDA consegue até fazer algumas soluções de aritmética básica”, explica Cortiz.

📷 Polêmica: inteligência artificial da google ganhou consciência própria | Isto É Dinheiro

Em artigo publicado no site Medium, no dia 11 de junho, o engenheiro explicou que começou a interagir com o LaMDA no outono passado para determinar se havia discursos de ódio ou discriminatórios dentro do sistema de inteligência artificial.

Na opinião de Brian Gabriel, porta-voz do Google, “não faz sentido fazer isso antropomorfizando os modelos de conversação atuais, que não são sencientes (capaz de sentir ou perceber através dos sentidos)”. Ou seja, aqueles que são como o LaMDA.

“Estes sistemas imitam os tipos de troca encontrados em milhões de frases e podem falar sobre qualquer tema fantástico”, diz ele.

No caso específico do LaMDA, ele explicou que “tende a seguir as instruções e as perguntas que são formuladas, seguindo o padrão estabelecido pelo usuário”.

Gabriel afirma que o LaMDA passou por 11 revisões diferentes sobre os princípios da inteligência artificial “junto com pesquisas e testes rigorosos baseados em métricas chave de qualidade, segurança e capacidade do sistema de produzir declarações baseadas em fatos”.

Segundo ele, há centenas de pesquisadores e engenheiros que conversaram com o chatbot, e não há registro “de que ninguém mais tenha feito declarações tão abrangentes, nem antropomorfizado o LaMDA, como Blake fez”.

Veja mais conteúdos relacionados em nossa categoria tecnologia.

Fonte: BBC, Uol.

Comente o que você achou desse post.