IA: Brasileira Explica o Caos Tecnológico e Ensina a Se Proteger de Riscos

Ouvir conteúdo

IA: Brasileira Explica o Caos Tecnológico e Ensina a Se Proteger de Riscos

Temas que antes pareciam roteiros de filmes de ficção científica agora dominam as discussões sobre tecnologia e segurança digital. Nesse cenário de rápidas transformações, a voz de Catharina Doria, especialista em letramento de IA, tem se destacado. Ela viralizou nas redes sociais com vídeos que desmistificam os riscos e ensinam como se proteger da inteligência artificial de forma acessível.

Em menos de um ano, Catharina conquistou mais de 200 mil seguidores no Instagram, com alguns de seus vídeos ultrapassando a impressionante marca de um milhão de visualizações. A jornada começou com um desafio: um vídeo que instigava o espectador a identificar qual conteúdo era gerado por IA e qual era real. O resultado, surpreendentemente difícil, evidenciou a necessidade de um olhar mais crítico.

“Parece fácil, mas é muito difícil”, alertava Doria em uma postagem que apresentava vídeos curtos de uma youtuber, uma cantora e um streamer de games, todos falsos. “Você precisa treinar seu cérebro para se proteger dessa tecnologia”, enfatizava. Esse primeiro vídeo, que deu origem a uma série, alcançou mais de 60 mil visualizações e serviu como um marco para a especialista.

O Início de uma Missão: Desmistificando a IA

Catharina Doria explica que a motivação para criar o conteúdo foi a necessidade de instilar um senso crítico nas pessoas. Ela queria que compreendessem que muitos vídeos online são, na verdade, produzidos por inteligência artificial e, mais importante, como identificar essas criações. Essa percepção se tornou ainda mais crucial com alertas sobre riscos de privacidade, como o caso dos robôs aspiradores.

Em uma publicação em inglês, Doria alertou: “NUNCA confie no seu aspirador robô! Talvez nada aconteça. Mas talvez aconteça. E TENHO CERTEZA de que você NÃO quer ser a pessoa cuja foto no BANHEIRO vaza”. Esse aviso ressoa com a preocupação de que esses dispositivos podem coletar dados pessoais e até capturar imagens, um tema já abordado anteriormente por veículos de comunicação.

Antes de se tornar uma influenciadora digital em IA, Catharina já demonstrava seu talento e engajamento com a tecnologia. Aos 16 anos, desenvolveu um aplicativo para denunciar casos de assédio sexual, após vivenciar uma situação semelhante. Na época, ela concedeu entrevistas a diversos meios de comunicação, expressando seu compromisso com o uso positivo da tecnologia, sem imaginar que seu foco futuro seria a inteligência artificial.

Da Academia à Rede Social: A Jornada de Catharina Doria

A inspiração para o trabalho de Catharina com IA surgiu durante a escrita de seu Trabalho de Conclusão de Curso (TCC) em comunicação. Um livro recomendado por sua professora, “Algorithms of Oppression” (Algoritmos da Opressão), de Safiya Noble, foi um divisor de águas. A obra expõe o viés dos motores de busca, como o Google, e como eles funcionam de maneira diferente para pessoas de diferentes etnias, destacando representações racistas no passado.

“Eu li aquele livro e, quando terminei, falei: é isso. Vou mudar de carreira e quero trabalhar com IA e ter a certeza que essas tecnologias estão funcionando pra todo mundo”, relata Doria. Ela concluiu a faculdade com honras, defendendo a melhor tese, e decidiu aprofundar seus conhecimentos com um mestrado em ciência de dados. Esse período, embora desafiador, foi fundamental para que ela pudesse entender o funcionamento interno da IA.

“Chorei todos os dias? Chorei. Mas aprendi a como pegar uma ‘machine learning pipeline’ e fazer um algoritmo”, confessa. Após a graduação, Doria focou na área de governança e igualdade em algoritmos, trabalhando para uma empresa americana de governança de IA. Essa experiência a levou a viajar pelo mundo, aprendendo a transformar a IA em uma ferramenta positiva e a criar salvaguardas contra seus usos prejudiciais.

A Lacuna na Comunicação: Da Indústria para o Público Geral

Catharina percebeu uma desconexão significativa. Enquanto a indústria e a academia discutiam avanços como OpenAI e novas leis nos EUA, sua própria mãe não compreendia o que era IA, os golpes em andamento ou como os vídeos que via nas redes sociais eram, na verdade, gerados por inteligência artificial. Essa constatação a levou a uma decisão clara: ser a ponte entre o complexo mundo da IA e o público em geral.

“Decidi, então, que seria a pessoa que fala com as pessoas no dia a dia. Vou criar conteúdo sobre isso”, afirma. Em apenas quatro meses, a iniciativa rendeu quase 200 mil seguidores, um indicativo claro de que as pessoas reconhecem a presença da IA em suas vidas e os potenciais prejuízos que ela pode acarretar. A receptividade tem sido notável, com muitas pessoas relatando assistir aos seus vídeos com os filhos antes de dormir.

Segurança da IA e Cultura Pop: Os Pilares do Conteúdo

Atualmente, Catharina Doria dedicou-se integralmente à criação de conteúdo sobre letramento de IA e ética. A escolha dos temas para seus vídeos segue pilares importantes, com destaque para a “AI safety”, a segurança da IA. Exemplos como o alerta sobre os robôs aspiradores e a desaconselhamento de participar de “AI trends” em redes sociais ilustram essa preocupação.

Ela acredita que muitas pessoas estão adotando a IA de forma irresponsável, sem compreender seus potenciais malefícios. Além disso, Catharina busca engajar o público comentando notícias recentes e participando da conversa cultural. Um exemplo foi o caso envolvendo vídeos supostamente gerados por IA da cantora Taylor Swift. Doria analisou os conteúdos e, embora não possa afirmar categoricamente, expressou sua opinião de que foram feitos com IA.

Outro tema relevante abordado foi a criação de conteúdo com inteligência artificial utilizando a imagem de pessoas falecidas, como o caso de Robin Williams. A filha do ator se manifestou publicamente contra o uso da IA para recriar seu pai. Catharina produziu um vídeo explicando os motivos pelos quais essa prática é eticamente questionável, destacando a importância de não representar pessoas que já partiram.

A Vulnerabilidade Universal: Quem é a Maior Vítima da IA?

Questionada sobre quem seria a maior vítima da IA, Catharina Doria é categórica: todos. Ela observa que a vulnerabilidade não tem idade ou faixa etária. Em um mês, seus vídeos geraram cerca de 7,1 milhões de visualizações e centenas de milhares de comentários, vindos de pessoas de 16 a 70 anos, todas demonstrando estar “perdidas”.

“Dizer que existe um único grupo demográfico mais perdido seria errado, porque o letramento em IA não está acontecendo para ninguém”, afirma. Ela relata que amigos com alto nível de letramento em outras áreas admitem não saber distinguir um vídeo gerado por IA de um real, aprendendo apenas com seus conteúdos. Esse problema afeta a população globalmente, o que ela considera “muito assustador”.

Seus conteúdos são bilíngues, em inglês e português, com legendas e stories em ambos os idiomas. Seus seguidores são de diversas nacionalidades, incluindo brasileiros, norte-americanos, espanhóis, alemães e indianos, todos compartilhando a mesma sensação de desorientação. “Está todo mundo perdido, independentemente da nacionalidade e da idade”, conclui.

A Rapidez da Adoção e a Falta de Transparência

A sensação de estar perdido diante da IA se deve a vários fatores, segundo Catharina. Um deles é a **rapidez da adoção da inteligência artificial**. De repente, a tecnologia se tornou onipresente, com a indústria a abraçando como uma solução universal para otimizar processos e o trabalho, mas sem o devido letramento.

Ela observa que muitas empresas simplesmente liberaram ferramentas como o ChatGPT sem explicar seus funcionamentos, seus problemas ou as implicações de privacidade. “Ninguém explicou que não se pode colocar informação privada no chat porque isso pode ser usado para treinar modelos de IA”, lamenta. A falta de orientação sobre como usar a tecnologia de forma segura e ética é um ponto crítico.

Outro ponto crucial é a **falta de transparência por parte das empresas**. Catharina explica que o algoritmo que define o conteúdo que vemos nas redes sociais opera sem que os usuários compreendam seu funcionamento. A possibilidade de fotos postadas em plataformas como a Meta serem usadas para treinar algoritmos é uma realidade pouco discutida.

“Essa transparência não existe. E isso acontece por vários motivos, inclusive porque a transparência assusta”, pontua. Empresas temem a reação do público ao revelar como os dados são utilizados. Doria acredita que uma comunicação mais aberta e honesta sobre o uso de dados e os riscos da IA poderia gerar maior confiança e colaboração por parte dos usuários.

O Papel de Todos na Construção de um Futuro com IA

O letramento em IA, segundo Catharina, deve vir de todos os setores: empresas, estado e comunicadores. No entanto, ela ressalta que, na prática, as empresas muitas vezes só se tornam transparentes quando há leis que as obrigam. A Europa, com o EU AI Act, busca impor maior transparência, mas ainda enfrenta resistência.

“Sem lei, considero impossível que grandes corporações adotem, por vontade própria, uma versão mais transparente e correta da inteligência artificial”, afirma. Por isso, a criação de leis que protejam a população é fundamental, pois as empresas, por si só, não garantirão a adoção ética da IA.

Empresas que se propuserem a ajudar a esclarecer o “caos de informação” sobre IA se destacarão nos próximos anos. A comunicação sobre IA deve ser feita de forma a não assustar, mas sim a **transformar medo em conhecimento**. Em vez de apenas alertar sobre os problemas, é essencial apresentar o que as pessoas podem fazer para se empoderar e se proteger.

Catharina Doria reflete sobre a percepção de que seus vídeos assustam: “Estou assustando quando digo que um robô na casa pode ser usado para gravar você, ou a situação de ter um robozinho que pode ser hackeado é, por si só, assustadora?”. Ela argumenta que sua função é trazer à tona problemas que antes eram ignorados, e que a responsabilidade de transformar essa informação em conhecimento e ação é de todos. O objetivo final é capacitar as pessoas a entenderem a IA e a navegarem nesse novo cenário com segurança e consciência.

Compartilhe nosso conteúdo