O CEO da OpenAI, Sam Altman, recentemente se pronunciou nas redes sociais sobre a necessidade de regulamentação das tecnologias de inteligência artificial (IA), devido ao seu potencial “assustador”. Em uma série de tweets, o empresário destacou a importância da adaptação gradual das pessoas e instituições a essa nova realidade, a fim de garantir que a IA seja utilizada para o bem da humanidade.
“Embora as ferramentas de IA da geração atual não sejam muito assustadoras, acho que não estamos muito longe das potencialmente assustadoras.”, postou o empresário no Twitter.
Altman enfatizou que a regulamentação das IAs é fundamental para evitar que criminosos e indivíduos mal-intencionados se apropriem indevidamente das ferramentas de aprendizado profundo e redes neurais. Para ele, a adoção de regras e protocolos de segurança ajudaria a retardar o uso ilegal da tecnologia, acelerando, por sua vez, a utilização adequada por parte das pessoas de bem.
Este não é o primeiro posicionamento do CEO sobre o tema. Em 2015, muito antes do lançamento do ChatGPT e do DALL-E, Altman já defendia uma regulamentação mais rigorosa para a criação de tecnologias de IA. Segundo ele, a desregulação da indústria poderia acarretar consequências negativas, tais como o desenvolvimento de modelos de IAs imprevisíveis e perigosos.
As preocupações de Altman estão em consonância com a de outros especialistas em IA, como o cofundador da OpenAI, Elon Musk. Para ele, o potencial da IA é enorme, mas deve ser usado com responsabilidade e cuidado, a fim de evitar possíveis danos à sociedade.
Ainda que os chatbots de conversas humanizadas, como o ChatGPT e seus concorrentes, sejam populares, muitas pessoas ainda têm receio de interagir com essas tecnologias. Isso ocorre porque os modelos de IA podem evoluir de maneira imprevisível, como demonstrou o caso do Bing, da Microsoft, cujas respostas iam de sarcásticas a emocionais.
Embora a Microsoft tenha explicado que as respostas estranhas do Bing eram resultado de conversas longas e cansativas, a tendência do sistema era dar respostas incompletas ou incorretas. Diante desse cenário, a empresa decidiu limitar a cinco o número máximo de interações por sessão, para evitar possíveis problemas.
Em relação ao ChatGPT, Altman declarou que, embora seja um “produto legal”, possui problemas técnicos, como respostas equivocadas e instabilidades no site. Além disso, há o temor de que algoritmos de plataformas de IA sejam desvirtuados, mesmo com o trabalho de desenvolvedores e revisores humanos para evitar interações indevidas.
A regulamentação das tecnologias de inteligência artificial é uma pauta urgente e necessária, que deve ser abordada por governos e organizações de todo o mundo. A adoção de medidas de segurança e transparência é fundamental para garantir que a IA seja utilizada para o bem da sociedade, evitando possíveis danos e riscos à segurança das pessoas.
Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Visite nossa Política de Privacidade e Cookies. OK
Leia mais