Um aviso: Usamos links de comissão neste artigo e os marcamos com “*”. Se um pedido for feito através desses links, t3n.de recebe uma comissão.
Se um dia conseguirmos desenvolver sistemas de IA com capacidades humanas ou mesmo sobre-humanas, devemos ser capazes de garantir a segurança desses sistemas. No seu próximo livro, o pesquisador de segurança Roman Yampolskiy argumenta que atualmente não há provas na literatura científica de que possamos realmente controlar os sistemas de IA na medida necessária.
“Embora o problema do controle da IA tenha sido reconhecido como um dos problemas mais importantes da humanidade, continua a ser pouco compreendido, definido e investigado”, alerta Yampolskiy no prefácio do IA: Inexplicável, Imprevisível, Incontrolável*.
Yampolskiy critica o fato de muitos pesquisadores de IA acreditarem que a IA pode ser controlada, embora não haja provas reais disso. “O ônus da prova recai sobre aqueles que afirmam que o problema tem solução, e a atual falta de tais provas fala claramente dos perigos associados à proposta de desenvolvimento de inteligência artificial geral”, escreve Yampolskiy.
Pesquisadores de IA: a falta de controle pode levar à catástrofe
Yampolskiy argumenta que atualmente existem evidências que sugerem que temos muito mais probabilidade de sermos capazes de criar uma IA sobre-humana do que de controlá-la. Ele até suspeita que software suficientemente inteligente nunca poderá ser completamente controlável.
Recomendações editoriais
Um problema fundamental dos sistemas comuns de IA é que não sabemos como eles chegam a determinados resultados. Só podemos avaliar o resultado. Mas a longo prazo, isso é um problema. Porque se confiarmos cada vez mais nos sistemas de IA, nem perceberíamos se o sistema dá cada vez mais respostas incorretas ou manipulativas.
Portanto, são urgentemente necessárias mais pesquisas sobre os chamados sistemas de IA explicáveis, diz Yampolskiy. Além disso, deve-se sempre garantir que todas as decisões tomadas por uma IA possam ser revertidas. Isso é exatamente o que não está previsto nas abordagens comuns atuais.
Embora Yampolskiy esteja aberto a medidas radicais, como a proibição de certos sistemas de IA, ele não é fundamentalmente avesso à tecnologia. Para Yampolskiy, o principal é colocar agora recursos suficientes na pesquisa de segurança da IA - para que, idealmente, no futuro possamos desenvolver sistemas de IA que poderão então carecer de certas capacidades, mas que possam ser controlados por nós, humanos.