X

Esse homem acertou todas previsões sobre inteligência artificial

Imagem: Piaras Ó Mídheach/Web Summit via Sportsfile

O professor que foi considerado ‘louco e alarmista’ e vem acertando previsões sobre inteligência artificial.

Há seis meses, Gary Marcus, professor emérito da Universidade de Nova York (NYU), EUA, considerado também uma das maiores vozes sobre a IA na atualidade, escreveu há seis meses:

“Algo inacreditável está acontecendo na inteligência artificial neste momento — e não é inteiramente para o bem.”

Na visão do professor, o surgimento do ChatGPT está levando a humanidade ao “momento Jurassic Park” das máquinas: a possibilidade de a situação fugir ao controle.

Em entrevista à BBC Brasil, Marcus disse que “quando escrevi esse artigo, acho que as pessoas pensaram que eu era louco ou alarmista”. Porém, parece que ele pode estar, ao menos em parte, certo: em março, na Bélgica, um homem que constantemente conversava com o chatbot Eliza, da Chai, se suicidou.

A esposa do rapaz mantém firme a ideia de que o constante contato com a IA o fez tirar a vida. O governo belga se manifestou, afirmando que o caso é “precedente que deve ser levado a sério” e “o perigo do uso [de inteligência artificial] é uma realidade que precisa ser considerada”.

Esse cenário foi descrito por Marcus à WIRED quatro meses antes do ocorrido: “Talvez um chatbot vá magoar alguém tão profundamente que a pessoa será levada a acabar com a sua vida? (…) Em 2023, nós talvez vejamos nossa primeira morte por um chatbot.”

Marcus e suas previsões sombrias

No ano passado, o professor elencou “sete previsões sombrias” acerca da IA generativa, como o ChatGPT.

Entre elas, a de que a versão mais recente da ferramenta, com o GPT-4, seria como um “touro em uma loja de porcelanas, imprudente e difícil de controlar. Fará um significativo número de erros estúpidos, de fazer balançar a cabeça, em maneiras difíceis de prever”.

Um desses casos realmente ocorreu. Como o Olhar Digital noticiou, o professor estadunidense de Direito, Jonathan Turley, solicitou ao ChatGPT lista de acadêmicos envolvidos em assédio sexual, e se surpreendeu ao ver seu nome citado, inclusive com falsa reportagem de jornal falando sobre o “caso”.

Sobre o caso – calúnia inventada por uma IA – a OpenAI, dona do ChatGPT, soltou nota apenas afirmando que a ferramenta “nem sempre gera respostas precisas”.

“Não temos nenhuma garantia formal de que esses programas vão trabalhar da forma correta, mesmo quando fazem cálculos matemáticos. Às vezes eles estão corretos, às vezes não. Falta de controle e de confiabilidade são problemas que enxergo. Sua calculadora tradicional tem garantia de resposta aritmética. Mas os grandes modelos de linguagem, não”, disse Gary Marcus.

Fonte:

Olhar Digital

[Tecnologia]

Categorias: Tecnologia
Davson Filipe: Davson Filipe é Técnico em Eletrônica, WebDesigner e Editor do Realidade Simulada - Blog que ele próprio criou com propósito de divulgar ciência para o mundo. Fascinado pelas maravilhas do universo, sonha em um dia conhecer a Nasa.
Postagens relacionadas
Deixe um comentário