O que realmente é hackear? A definição parece extremamente seca: qualquer pessoa que utilize a tecnologia da informação de forma diferente da pretendida pelos inventores e, assim, atinja os seus próprios interesses ou contorne certos obstáculos, está envolvida em hacking.
Na verdade, também se poderia descrevê-lo como apropriação indébita criativa – e estão actualmente a surgir inúmeras novas tecnologias que oferecem exactamente a possibilidade disso. Estou falando de inteligência artificial, em particular de sistemas generativos de IA. Isto inclui, por exemplo, grandes modelos de linguagem e suas interfaces de usuário, como ChatGPT, geradores de imagens, como Midjourney, ou ferramentas para geração de som e vídeo, como Runway.
Este artigo apareceu pela primeira vez na revista t3n 72. Na edição atual, olhamos para os empregos do futuro. Confira agora a última revista.
Todos eles criam muitas novas áreas problemáticas na segurança cibernética. A lista a seguir de possíveis abordagens de hacking é, portanto, apenas exemplar e incompleta.
Infelizmente, tudo começa novamente com os próprios usuários. Não tenho certeza de quantas informações comerciais confidenciais estão migrando atualmente para o ChatGPT para legendar apresentações ou para criar vários textos de preenchimento. Mas provavelmente muito mais do que as empresas deveriam gostar em termos de sua própria segurança. É e nunca foi particularmente sensato copiar dados internos em qualquer campo de entrada na Internet.
Recomendações do Editor
Ele continua com a capacidade das ferramentas generativas de IA de gerar textos, imagens, vídeos ou até mesmo códigos de programas funcionais confiáveis e ao mesmo tempo individuais, rapidamente e com pouco esforço. Há alguns anos, ainda era necessário que as pessoas verificassem a ortografia de e-mails incomuns para identificar possíveis phishing, mas hoje os erros ortográficos não são mais uma indicação potencial. Os modelos de linguagem têm excelente ortografia.
O código malicioso gerado por assistentes de código agora é facilmente acessível e nenhum conhecimento especial de programação é necessário para isso. E onde os scanners de vírus normalmente identificam o código defeituoso com uma assinatura e, assim, o reconhecem repetidas vezes, agora é possível gerar novo código com a frequência desejada, com a qual a assinatura não corresponde mais um a um.
No entanto, como qualquer sistema de informação mais complexo, as ferramentas de IA também são suscetíveis às chamadas injeções de código. Os hackers usam dados especialmente formatados para garantir que certas instruções sejam executadas conforme pretendido. No caso das ferramentas de IA em particular, fala-se de injeção imediata – o que pode levar uma ferramenta de IA a executar instruções maliciosas. Que faça tudo o que lhe for pedido – faça qualquer coisa agora.
Isto pode parecer inofensivo se assumirmos que as ferramentas de IA muitas vezes apenas processam entradas e devolvem o conteúdo correspondente. Isso é apenas miopia. Ferramentas como o ChatGPT também interagirão com sites em tempo real. E se o conteúdo de tal site não pode transformar um assistente de IA em um macaco treinado maliciosamente – eu não apostaria nisso no momento. Já existiram injeções imediatas correspondentes para ChatGPT, nas quais um site alterou maliciosamente o comportamento do próprio ChatGPT.
Para os fãs de quebra-cabeças, também pode ser interessante extrair dados de treinamento de modelos de IA. Basicamente, os modelos de IA são apenas resumos compactados e aninhados multidimensionalmente dos dados de treinamento subjacentes.
À velocidade e à sede de dados com que os grandes modelos de IA estão actualmente a crescer, não se pode excluir que no futuro muitas pessoas ficarão surpreendidas ao descobrir que os modelos de IA foram treinados com os seus dados – e por vezes sem o seu consentimento ou conhecimento.
Vamos à biometria: “Minha voz é minha senha.” Ser capaz de se identificar com segurança em um sistema por voz costumava parecer uma ótima ideia. Algumas gravações de áudio de uma pessoa agora são suficientes para reproduzir autenticamente sua voz usando um modelo de IA. Isso também dará acesso aos invasores. Fazer login em sistemas sensíveis via vídeo ou som nunca foi uma ideia particularmente sensata.
Faça qualquer coisa agora. Tudo bem com IA. Mas tenha em mente que no mundo das ferramentas de IA, alguns aspectos estão se tornando cada vez mais incertos.
Por Bianca Kastl
Reescreva o texto para BR e mantenha a HTML tags