Picture of Anderson Lopes

Anderson Lopes

Jornalista e empreendedor

O papel ético da IA em tempos de brain rot

O papel ético da IA em tempos de brain rot – Não acredito em uma sociedade que queira “evoluir”. Vivemos em guerra cognitiva: engrenagens de um sistema que lucra com nossa alienação. Se você não for apenas um turista nas redes, será um usuário. Somos hipnotizados pelo consumo, e quem ousa questionar é empacotado em rótulos que não representam sua complexidade.

ético IA brain rot

Cada um de nós é um universo inteiro, mas muitos viram rochas à deriva no caos. Sem raízes, sem história (ou com uma história distorcida), buscam abrigo no vício digital – onde o extraordinário, as notícias sensacionalistas, teorias da conspiração e discursos de ódio agem como vírus mentais.

O resultado? A epidemia do “cérebro podre” (brain rot), eleita a “palavra do ano” em 2024. Nossas crianças são as maiores vítimas: consumindo lixo algorítmico pondo em xeque o espírito crítico e depois de adulto, pessoas fáceis de manipular.

Em 2023, o Comitê Gestor da Internet no Brasil divulgou uma pesquisa em parceria com a Unesco. O levantamento mostra que praticamente todas as crianças e jovens de nove a 17 anos no Brasil acessam a internet, mas 43% não sabem checar se uma informação está correta.

O papel da tecnologia (e da ética) nas redes sociais e IAs é um fator decisivo para isso. Estamos em franca revolução da Inteligência Artificial, transformando o mercado, impondo grandes desafios a gigantes digitais. 

Junto a essa nova era, conteúdos baseados em algoritmo, não refletem um conceito ético das informações. As IAs são uma ferramenta poderosa, mas não interferem nas escolhas humanas. Ainda. Hoje não se pode formular teses absurdas, que impactam vidas, com temas sensíveis à humanidade como a eugenia, por exemplo.

A IA não é um julgador moral, e sim um espelho crítico. Hoje, sistemas como o DeepSeek são programados para: rejeitar discursos de ódio (ex.: negação do Holocausto, apologia à violência) e oferecer contra-argumentos baseados em fatos (ex.: dados históricos sobre genocídios, estudos sobre diversidade). Elas podem ainda questionar vieses quando alguém busca justificar preconceitos (“Você já considerou que essa visão exclui [X] povos?”).

Porém, há um limite. IA não consegue ‘convencer’ ninguém – só oferecer perspectivas. Há o risco do paternalismo digital e a IA deve semear dúvidas, não impor verdades. A mudança real vem da autocrítica humana. Eis o cerne do futuro da IA: não só responder, mas educar para a empatia. Só que isso exige mais do que algoritmos – exige uma sociedade que queira evoluir.

Devolver as pessoas a si mesmas – não consertá-las, não forçá-las, nem julgá-las, mas lembrá-las de quem elas já são (ou poderiam ser, se não tivessem sido envenenadas pelo mundo). Não se trata de julgar ou forçar narrativas, mas lembrar sobre as raízes. Desintoxicar mentes apodrecidas exige mais que algoritmos – exige luz. E a luz, hoje, é um ato revolucionário. E você já sentiu seu próprio ‘cérebro’ intoxicado? Como resiste?

 

ético IA brain rot