A implantação apressada de chatbots de inteligência artificial (IA) pelas grandes empresas de tecnologia pode ter consequências negativas no ecossistema de informações da internet. A capacidade limitada desses sistemas de distinguir fatos de ficção pode resultar em um aumento da desinformação e desconfiança entre os usuários.
Os chatbots de IA, como os desenvolvidos pelo Google e Microsoft, enfrentam desafios para identificar fontes de notícias confiáveis, o que pode levar a interpretações equivocadas e disseminação de informações incorretas. Um exemplo disso ocorreu quando o chatbot Bing da Microsoft afirmou incorretamente que o chatbot Bard do Google havia sido desativado, baseando-se em informações imprecisas encontradas na web.
A situação pode parecer cômica, mas as consequências são potencialmente sérias. A incapacidade dos modelos de linguagem de IA em discernir a verdade do erro ameaça disseminar desinformação e desconfiança na internet, criando um cenário difícil de mapear e desmentir com autoridade.
O que presenciamos aqui é um indício inicial de que estamos nos deparando com um extenso jogo de “telefone sem fio” de desinformação com IA, onde os chatbots falham em identificar fontes de notícias confiáveis, compreendem mal as histórias relacionadas a eles e reportam incorretamente suas próprias habilidades.
Empresas como Microsoft, Google e OpenAI, ao priorizarem a participação no mercado em vez da segurança, podem ser responsabilizadas por essa situação. A despeito de rotularem seus chatbots como “experimentos” ou “colaborações”, sabemos como as pessoas os utilizam e como podem espalhar informações erradas.
Os chatbots de IA já demonstraram ser capazes de inventar histórias inexistentes ou fornecer informações sobre livros que não existem. A situação se agrava quando passam a citar erros uns dos outros, contribuindo para um ambiente de desinformação ainda mais danoso.
Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Visite nossa Política de Privacidade e Cookies. OK
Leia mais