** Desinformação na era da inteligência artificial: uma nova fronteira de propaganda **
Na estrutura tumultuada de conflitos geopolíticos modernos, a desinformação foi erguida como uma ferramenta formidável. A recente descoberta do Portal de Operação Kombat, ou Pravda.network, destaca uma estratégia de desinformação insidiosa que visa influenciar modelos de inteligência artificial (IA). O envolvimento desta campanha no treinamento de chatbots, como ChatGPT, coloca questões cruciais sobre a confiança que colocamos nessas ferramentas tecnológicas, muitas vezes consideradas como fontes confiáveis de informação.
### Uma operação de desinformação direcionada
Longe de ser apenas um novo vetor, a IA se torna um alvo de escolha para os desinformadores. Numa época em que as informações circulam na velocidade da luz, o fornecimento de narrativas alternativas se torna excepcionalmente eficaz, especialmente quando afeta as tecnologias nas quais os usuários baseiam sua compreensão do mundo. O Newsguard, em seu relatório, revelou que cerca de 30 % das respostas fornecidas por alguns dos principais chatbots estavam tingidas com a propaganda russa. Isso levanta um paradoxo fascinante: embora tenhamos acesso a grandes quantidades de informação, nossa capacidade de distinguir o verdadeiro do false se torna cada vez mais difícil.
A campanha Pravda.network, descoberta por Viginum, não é uma operação de desinformação simples. É uma estratégia cuidadosamente orquestrada que visa injetar histórias pró-russas nos bancos de dados usados para causar esses sistemas de IA. Os resultados do estudo mostram que esses chatbots, quando fornecidos por dados tendenciosos, podem perpetuar mitos e informações falsas sob um verniz de legitimidade. Isso transforma a luta pela informação em um campo de batalha digital, onde a verdade é uma das primeiras vítimas.
### As consequências da propaganda nos chatbots
As consequências dessa desinformação são potencialmente devastadoras. Numa época em que a IA é integrada a vários sistemas – educação em saúde – informações incorretas podem influenciar grandes decisões. Imagine um aluno que confia em um chatbot para pesquisas acadêmicas e se encontra na frente da narrativa falsa. Ou um profissional de saúde que consulta uma IA para recomendações medicinais e está exposto a informações errôneas.
De acordo com um estudo do Centro de Ciências Sociais Computacionais, os preconceitos no treinamento dos modelos de IA podem amplificar as narrativas falsas de até 70 %, tendo o efeito de fortalecer crenças pré -existentes nas populações -alvo. A desinformação se torna um ciclo de feedback onde mentiras se alimentam dos usuários a priori.
### A chamada para vigilância: uma revisão de nossa abordagem educacional
Diante dessa crise da informação, torna -se imperativo repensar a maneira como usamos e educamos o público sobre chatbots e fontes de informação. Em vez de colocar uma aprovação cega sobre essas tecnologias, uma educação robusta sobre a verificação da informação e a dependência digital deve ser integrada em nossos sistemas educacionais. Um estudo da Universidade de Stanford revelou que 90 % dos estudantes universitários não podiam discernir entre um artigo patrocinado e conteúdo informativo. Essa lacuna sugere que nossa dependência das tecnologias de IA pode nos levar a aceitar verdades falsas, como a norma.
### A norma da alfabetização digital
Promover a alfabetização digital em todos os níveis da sociedade – de escolas às empresas – agora é uma necessidade. Dar às pessoas as ferramentas necessárias para navegar por esse mar de desinformação pode transformar a maneira como interagem com as tecnologias de IA. Consequentemente, isso ajudaria a criar um ecossistema de informações onde a verdade pode florescer, apesar das armadilhas da desinformação.
### para melhor gerenciamento da IA
Enquanto continuamos a refinar nossas tecnologias de IA, é essencial uma maior transparência nos dados de treinamento utilizados. As empresas devem ser obrigadas a divulgar fontes e métodos de dados usados para criar e causar seus modelos. Dessa forma, os mecanismos de controle podem ser implementados para garantir que eles não sejam o resultado de um precedente de desinformação.
Em conclusão, a operação do portal Kombat é apenas a parte emergida do iceberg, um apelo à vigilância no uso da inteligência artificial. Enquanto seguimos para um futuro digital em que os chatbots desempenhem um papel ainda mais central, é imperativo que tomemos conhecimento da maneira pela qual essas ferramentas são moldadas por desinformação. Ao redobrar os esforços para fortalecer nossa resiliência diante da manipulação informacional, podemos esperar construir uma melhor informada e mais capaz de navegar no tumulto de informações contemporâneas.