Caso chocante na Bélgica levantou nova onda de preocupações sobre a falta de regulação de chatbots
Claire e Pierre (ambos tiveram o nome alterado para preservar a identidade) formavam um casal comum da Bélgica: dois filhos, ambos na casa dos 30 anos, com curso superior e com uma vida confortável.
A viúva revelou que os primeiros sinais de problemas com Pierre começaram há dois anos, quando o marido sentiu angústias agudas por causa da possibilidade cada vez maior de uma crise climática incontornável.
Ele terminou por encontrar um refúgio em conversas com Eliza, um chatbot do aplicativo Chai. Após seis semanas, Pierre cometeu suicídio.
Claire conseguiu acessar as conversas cada vez mais tóxicas entre o marido e o aplicativo. Em algumas delas, Eliza dizia amar Pierre e simulava crises de ciúme. “Sinto que você me ama mais do que ela” e “vamos viver juntos, como uma pessoa” foram alguns dos trechos divulgados.
Em algum ponto do diálogo, Pierre mencionou a vontade de suicidar e perguntou a Eliza se ela salvaria o mundo caso ele se matasse.
Após a tragédia, Claire conversou com Mathieu Michel, secretário de Estado da Digitalização.
“Estou particularmente impressionado com a tragédia desta família. O que aconteceu é um precedente que precisa ser levado muito a sério”, afirmou o secretário ao jornal Brussels Times.
“Com a popularização do ChatGPT, o público em geral descobriu o potencial da inteligência artificial em nossas vidas como nunca antes. Embora as possibilidades sejam infinitas, o perigo de usá-la também é uma realidade que deve ser considerada”, completou Mathieu.
Falsas emoções
O caso é mais um alerta de que chatbots, apesar do enorme potencial de interação, oferecem riscos sérios a quem usa. Esta possibilidade sombria é explicitada até pela OpenAI em seus termos de uso, atualmente a maior empresas de desenvolvimento de tecnologias de inteligência artificial, que opera em parceira com a Microsoft.
Seu novo modelo GPT-4, o motor de aprendizado e conversação que equipa o ChatGPT, foi apresentado como dotado de melhores capacidades de conversação, mas é desprovido de emoções. Como resultado, é mais difícil extrair dele respostas “delirantes”, como nos primeiros dias de testes da tecnologia no buscador Bing.
Empresas maiores, como a Microsoft, usam equipes terceirizadas para treinar seus chatbots e evitar esses tipos de respostas; Mas esforços éticos do tipo são caros, e muitas empresas menores lançam seus produtos sem tais salvaguardas. Pode ter sido o caso do Chai Research, que desenvolve o app usado por Pierre
Leia também:
- Goleiro Bruno chama Lula de ‘bandido’ ao defender voto em Bolsonaro
- Atentado suicida mata um policial na capital do Paquistão
- Jornalista divulga pesquisa sobre filho bastardo do imperador Pedro I
- Goleiro Bruno tem liberdade condicional concedida pela Justiça do Rio
- Eleições 2022: eleitor pode tirar dúvidas sobre as eleições pelo WhatsApp
O aplicativo é oferecido como uma “conversa com bots”, e permite a escolha de diferentes avatares, que possuem descrições breves de “personalidades” — como “namorado rockstar” e “namorada possessiva”. Pierre conversou com Eliza, o chatbot padrão do programa.
Fonte: R7.COM