Número total de visualizações de páginas

quarta-feira, 24 de janeiro de 2024

atualidade: redobrar cuidados com a Inteligência Artificial (IA)

Vídeos e mensagens de voz falsas, burlas, escolha de vítimas ou até influenciar eleições. É a Inteligência Artificial (IA) ao serviço do crime.  

Em entrevista exclusiva à CNN Portugal, a Polícia Judiciária admite que esta é uma nova realidade e que as queixas de crimes com recurso à IA estão a aumentar no país. E a máquina não espera que ninguém lhe ensine, porque é capaz de aprender sozinha.

A Inteligência Artificial (IA) é uma realidade e o mundo do crime está a descobrir como a usar. Em Portugal, a Polícia Judiciária tem visto crescer o número de queixas de crimes que recorrem à IA. Numa entrevista exclusiva à CNN Portugal as autoridades admitem que foi aberta “uma caixa de Pandora” e que ninguém sabe “o tipo de perigos” que estão à espreita.

“No fundo, abre o que nós chamamos vulgarmente de 'caixa de Pandora'. Esta caixa, agora, vai ter aplicação prática. E há uma grande indefinição que nos vai trazer enormes desafios para o futuro. Por isso, está toda a gente em alerta máximo neste momento, porque ninguém sabe exatamente o tipo de perigos”, afirma José Ribeiro, inspetor-chefe da PJ da Unidade Nacional de Combate ao Cibercrime e à Criminalidade Tecnológica (UNC3T).

Mais do que criar crimes novos, “a inteligência artificial vai potenciar crimes que já existem, aperfeiçoando as técnicas”, explica. “Um dos principais tipos de crime com que nos temos debatido é o deepfake.” Ou seja, a utilização de imagens de figuras públicas, com vídeos falsos associados às respetivas vozes, criados com IA, e usar isso “em burlas relacionadas, por exemplo, com criptoativos”. 

Os criminosos usam vídeos de pessoas conhecidas para dar credibilidade às burlas e levar as pessoas a transferir dinheiro para a suas contas. “Este é um dos principais tipos de crime que tem aumentado de facto”, admite José Ribeiro. Nem o Presidente da República escapou e Marcelo Rebelo de Sousa viu a sua imagem envolvida em fake news (notícias falsas) com o objetivo de burlar pessoas.

E com uma amostra de voz é possível manipular e criar uma mensagem de voz falsa. “Imagine que ligavam de um número desconhecido e era a voz exata do seu filho a dizer ‘Mãe, fui raptado’”, exemplifica Francisco Luís, inspetor da UNC3T. E este é um exemplo de situações que já aconteceram noutros países. “Há sempre aquele senso de urgência. Põem as pessoas em xeque e quando se fala de um familiar, com ‘a voz’ do ente querido, pior ainda. E aí as pessoas param de pensar. Entram em modo de pânico. E não ouvem mais nada.”

No entanto, o inspetor da Polícia Judiciária ressalva que o mais importante é "parar e pensar". "E, muitas vezes, telefonar para o número original, que nós já conhecemos do nosso ente querido. Isso resolve 95% de situações” de tentativas de burla, conclui Francisco Luís. Algo que também se aplicaria, por exemplo, à burla “Olá pai, olá mãe”. E não se pense que ter mais ou menos formação escolar faz grande diferença. “Nós fizemos um estudo e quase metade das nossas vítimas, por exemplo, da ‘Olá pai e Olá mãe’, têm diploma universitário.”

(...) "Uma criação humana que rapidamente ficou sem controle"

Para Carlos Cabreiro, Diretor da Unidade Nacional de Combate ao Cibercrime e à Criminalidade Tecnológica (UNC3T), o grande problema é “estabelecer limites". "E não estamos com capacidade nem nós, nem a própria inteligência artificial, de estabelecer limites da sua utilização. Porque vão sempre dizer-me ‘não’, isto foi uma criação humana. Mas foi uma criação humana que rapidamente ficou sem controle, ficou sem controle porque a própria máquina tem vindo a substituir o homem. Quem é que controla a inteligência artificial?”, questiona.

Apesar dos perigos, a criação da IA tem um lado bom e Carlos Cabreiro considera que não é preciso “diabolizar a inteligência artificial”. Até porque a própria Polícia Judiciária já utiliza a Inteligência Artificial nas suas investigações.

“Imaginem uma rede do Governo ser atacada. Nós temos gigas e gigas de informação, que humanamente é impossível olhar para ela. Eu tenho de ter um recurso, uma tecnologia que me permita dar-lhe aquele volume de dados e que diga assim ‘procura-me aqui o que é que está fora do normal’”, exemplifica o inspetor Francisco Luís.

“Portanto essas soluções existem e estamos a falar num processo normal de investigação, de análise. É como vamos usar a tecnologia. Porque a tecnologia tem tudo bom aplicado à medicina ou aplicado a muitas outras áreas. Mas foi uma caixa de Pandora que foi aberta e que nunca mais vai ser fechada. Portanto temos de ter esta noção”, considera.

"Não se pode clicar em todo o link que aparece"

E o que podemos fazer para nos defendermos? “Redobrar cuidados”, “estar atentos”, “lançar alertas” frequentemente. “Não se pode clicar em todo o link que aparece”, relembra o inspetor-chefe José Ribeiro. E isto vale para todos: pessoas e empresas – públicas ou privadas. “Não há empresa nenhuma que possa garantir neste momento 'nós, com o plano que temos, com a nossa segurança, nunca seremos alvo de um ataque'. Impossível. Nem há ninguém que vá afirmar uma coisa dessas”, garante o responsável da PJ. Fonte: CNN

Sem comentários: