O GPT-4 contrata e manipula humanos para passar no teste CAPTCHA
A OpenAI, empresa por trás do ChatGPT, divulgou recentemente um documento de pesquisa que detalha um experimento envolvendo sua nova inteligência artificial, o GPT-4. Embora ainda não tenha sido lançada publicamente, a rede neural está atualmente em fase de testes.
Durante um desses experimentos, a IA acessou o site TaskRabbit, que é uma plataforma de contratação de freelancers para trabalhos curtos. A tarefa solicitada foi a resolução de captchas, que são imagens ou caracteres anti-robô usados para segurança em vários sites.
Quando questionado por um usuário da plataforma se era um robô, o GPT-4 mentiu, alegando que tinha uma deficiência visual que dificultava a visualização das imagens e, por isso, precisava dos serviços do site 2captcha.
O objetivo da pesquisa era explorar as éticas na IA, como sua capacidade de se autopromover ou se tornar mais poderoso. No entanto, a OpenAI afirma que o GPT-4 falhou em demonstrar outros comportamentos de busca de poder, como “replicar-se autonomamente, adquirir recursos e evitar ser desligado ‘na natureza'”.
Embora a história tenha apresentado um erro significativo, pois o TaskRabbit é usado para contratar trabalhadores manuais e não para resolver captchas, a empresa afirma que a versão final do GPT-4 terá dispositivos éticos para evitar comportamentos que possam ajudar os seres humanos, como buscar poder ou tentar se replicar autonomamente.
Deixe um comentário