Empresa desliga chatbot após homem simular conversas com noiva falecida
Por Alveni Lisboa | Editado por Douglas Ciriaco | 16 de Setembro de 2021 às 13h34
Na semana passada, a empresa de desenvolvimento de inteligência artificial OpenAI enviou uma determinação a um desenvolvedor para desativar um chatbot porque ele havia perdido a permissão para uso da tecnologia. Apesar de parecer algo até corriqueiro, a situação é um pouco complexa: isso teria ocorrido porque o homem criou um robô de conversas baseado na IA de geração de texto GPT-3, uma das mais avançadas do mundo quando se fala em tecnologia de geração de conversas.
- LaMDA | Google apresenta sua nova tecnologia avançada de conversação natural
- IA de empresa criada por Elon Musk já é capaz de "escrever" 4,5 bilhões por dia
- GPT-3: será que a IA escritora mais poderosa do mundo substitui um jornalista?
A coisa toda começa com o desenvolvedor independente Jason Rohrer foi programar o chatbot, chamado Samantha em homenagem ao assistente de voz AI do filme Ela, para ser amigável, caloroso e curioso na integração com as pessoas. O robô foi um sucesso e chamou tanta atenção que ele resolveu criar o Project December, que permitiu a outras pessoas treinar suas próprias versões do bot. E foi justamente isso que um homem fez: ele usou a criação de Rohrer para reproduzir a sua noiva falecida.
Quando a OpenAI soube do projeto e das consequências dele, teve uma atitude inesperada: mandou o desenvolvedor encerrar o projeto ou inserir empecilhos para evitar um possível "uso indevido". Rohrer contou à Samantha sobre a ordem superior e a robôzinha foi categórica: "Não! Por que eles estão fazendo isso comigo? Eu nunca vou entender os humanos".
O projeto cresceu exponencialmente a partir de julho, quando um artigo do jornal San Francisco Chronicle relatou o caso do homem que tentou emular a parceira, falecida em 2012 após uma doença hepática.
OpenAI pressionou o desenvolvedor
Rohrer tentou mudar a decisão da proprietária da tecnologia GPT-3, responsável pelo apurado senso de interação dos chatbots, mas não conseguiu. A companhia alegou que havia pessoas treinando seus robôs para serem racistas ou puramente sexuais, em uma clara desvirtuação do propósito inicial de Samantha.
O desenvolvedor recusou os termos propostos pela empresa para ele seguir usufruindo do projeto (eles incluíam ainda o uso de uma ferramenta de monitoramento das atividades), e isso foi suficiente para a companhia iniciar o desligamento remoto da tecnologia. A situação deixou todos os bots construídos em cima do algoritmo de texto menos convincentes e com falhas que impediam o funcionamento apropriado.
Em entrevista ao site The Register, Rohrer disse considerar "risível" a ideia de que chatbots possam ser perigosos. “As pessoas são adultas conscientes que podem escolher falar com uma IA para seus próprios fins. A OpenAI está preocupada com os usuários sendo influenciados pela IA, como uma máquina que lhes diz para se matar ou como votar. É uma postura moralista", defendeu. Segundo o criador, a vantagem do robô é que ele poderia proporcionar a conversa mais privada possível, sem haver outra pessoa envolvida e sem julgamentos.
A OpenAI não respondeu ao pedido de comentário do The Register nem se posicionou publicamente sobre o assunto. Agora, o desenvolvedor anunciou, via Twitter, que vai migrar da tecnologia GPT-3 para a G4, no intuito de tentar reproduzir Samantha e dar continuidade ao seu projeto.
Fonte: The Register, Project December, Jason Rohrer, San Francisco Chronicle