Tem aumentado de forma expressiva as preocupações sobre os rumos da inteligência artificial. Principalmente porque os alertas estão surgindo de especialistas, que mostram os perigos da inadequada utilização dessas potentes ferramentas tecnológicas. Destacamos nesse texto muitas considerações de Gary Marcus, professor emérito da Universidade de Nova York (NYU), nos Estados Unidos, e uma das principais vozes no debate sobre a IA na atualidade.
Riscos gerados pela Inteligência Artificial
Segundo Marcus, “Algo inacreditável está acontecendo na inteligência artificial neste momento, e não é inteiramente para o bem”, escreveu em seu artigo seis meses atrás. Conforme sua visão, o lançamento do ChatGPT nos está levando ao “momento Jurassic Park” das máquinas: a possibilidade, como no filme de Steven Spielberg, de que a situação fuja do controle. Ele ainda salientou que “Quando escrevi esse artigo, acho que as pessoas pensaram que eu era louco ou alarmista”, disse Marcus, em entrevista à BBC News Brasil.
Na Bélgica, homem que utilizava chatbot cometeu suicídio
Salientando que sérios problemas com esse tipo de inteligência artificial começaram a proliferar em 2023. No mês de março na Bélgica, um homem que conversava frequentemente com o chatbot Eliza, da empresa Chai, cometeu suicídio. A esposa afirma que o contato com o programa o levou a tirar a própria vida. Esse caso para o governo belga é “um precedente que deve ser levado a sério” e “o perigo do uso de inteligência artificial é uma realidade que precisa ser considerada”.
Entre as previsões do Professor Marcus, esse cenário de riscos foi descrito quatro meses antes em artigo para a revista Wired: “Talvez um chatbot vá magoar alguém tão profundamente que a pessoa será levada a acabar com a sua vida. Em 2023, nós talvez vejamos nossa primeira morte por um chatbot”, alertou.
Sistemas com potencial destrutivos e inconfiáveis
Os alertas do professor são preocupantes. “Acho que esses sistemas podem ser destrutivos. E parte do motivo do potencial de destruição é que eles não são confiáveis. Esses programas podem inventar algo e dizer a um usuário que isso é um fato. E eles também podem ser usados por pessoas com essa finalidade”, ressaltou.
De acordo com Marcus, a situação pode sair do controle no futuro. “Os sistemas de inteligência artificial que temos agora não são bem controlados. Ainda não é uma situação terrível, mas as pessoas estão dando mais e mais poderes a eles. E não sabemos o que esses sistemas podem executar em uma determinada situação”, enfatizou.
Previsões sombrias do professor
O professor Marcus selecionou no ano passado “sete previsões sombrias” sobre sistemas como o ChatGPT, entre elas a de que a versão mais nova do programa seria como um “touro em uma loja de porcelanas, imprudente e difícil de controlar. Fará um significativo número de erros estúpidos, de fazer balançar a cabeça, em maneiras difíceis de prever”, alertou.
Robôs podem criar histórias mentirosas
Com a Inteligência artificial sem os devidos controles, muitas histórias podem ser criadas falsamente. No final de março, um caso bizarro chamou a atenção. Uma pessoa pediu ao ChatGPT para citar acadêmicos envolvidos em episódios de assédio sexual. A lista mencionava um professor norte-americano de Direito, Jonathan Turley.
O preocupante é que o programa disse que Turley fez comentários sexualmente sugestivos a uma aluna durante uma viagem ao Alasca e tentou tocá-la. A resposta citava como evidência uma reportagem de 2018 do jornal The Washington Post. Entretanto, nada disso jamais existiu: nem a viagem, nem a reportagem ou mesmo a acusação. Só o professor e sua reputação eram de verdade. É como se o robô tivesse inventado uma calúnia.
Referente a esse episódio, a OpenAI, empresa do ChatGPT, divulgou um comunicado dizendo que o programa “nem sempre gera respostas precisas”.
Faltam controle e confiabilidade na inteligência artificial
De acordo com Marcus, existe falta de controle e confiabilidade na utilização das ferramentas da Inteligência Artificial. “Não temos nenhuma garantia formal de que esses programas vão trabalhar da forma correta, mesmo quando fazem cálculos matemáticos. Às vezes eles estão corretos, às vezes não. A sua calculadora tradicional tem a garantia de uma resposta aritmética. Mas os grandes modelos de linguagem, não”, disse.
Regulamentação é melhor solução
O professor defende que as empresas sejam objeto de regulamentação e cita o mercado de aviação como um exemplo de que é algo necessário. “O setor aéreo na década de 1950 era um desastre. Os aviões caíam o tempo todo. A regulamentação foi boa para o setor aéreo, conseguiu que a indústria aérea desenvolvesse um produto melhor no final das contas”, destacou.