Uma inteligência artificial (IA) como o ChatGPT ou o Bard, da Google, ganham conhecimento ao serem alimentadas por bases de dados, páginas e grandes quantidades de informações a partir de uma varredura na internet. Mas o quanto isso pode ser perigoso ou nocivo do ponto de vista de segurança digital, privacidade e integridade de sistemas?
Esse questionamento levou pesquisadores da Universidade de Surrey, no Reino Unido, a desenvolverem um novo programa que verifica o quanto uma IA realmente sabe sobre uma empresa ou plataforma.
O software faz uma pesquisa dentro da própria IA para verificar a quantidade e a profundidade de conhecimento dela a respeito de uma corporação — e saber exatamente que tipo de dados foram extraídos no momento de alimentação dessa plataforma. Dúvidas envolvendo privacidade fizeram o próprio ChatGPT ser suspenso temporariamente na Itália.
Fonte: TecMundo