"La desinformación 'ta retando la confianza en las redes sociales"

En el mundo de las redes sociales, hoy en día se ha vuelto más complicado saber si quien está opinando, aplaudiendo o atacando es una persona de carne y hueso o una máquina. Los bots de ahora -esos programas que se hacen pasar por gente real- ya han aprendido a comportarse igualito que nosotros. Publican a cualquier hora, usan frases del día a día, imitan emociones y hasta comentan en un español bien decente. Su meta: desinformar, influir y confundir.

Este lío no es solo de los países grandes. Aquí en RD, el impacto se está notando más y más. La revista española Ciberseguridad ha dado la voz de alarma sobre unos bots llamados “grises”, que están impulsados por inteligencia artificial para soltar mensajes engañosos sin que nadie sospeche. Su realismo ha hecho que sea difícil distinguir lo que es de verdad de lo que está manipulado.

El Indotel (Instituto Dominicano de las Telecomunicaciones) ya está enfrentando esta amenaza con propuestas de educación digital. En un foro que hicieron junto a Unibe, llamado “Redes Sociales, Periodismo y Democracia”, salieron a relucir datos preocupantes: el 67 % de la información que corre por las redes dominicanas es falsa, y el 77 % de los usuarios la comparte sin siquiera verificar.

Para enfrentar esta crisis de confianza, Indotel lanzó “Teo”, un asistente virtual para orientar a la gente sobre los servicios de telecomunicaciones y ciberseguridad. Una herramienta para usar la tecnología de manera correcta. Pero mientras se educa al público, los bots se vuelven más finos. Según Barracuda Networks, en 2024 representaron el 24 % del tráfico global de internet. Y casi la mitad de esos bots son tan avanzados que pueden burlar CAPTCHAs, filtros de IP y otros sistemas de seguridad.

Estos “bots avanzados” ya no solo imitan el lenguaje humano: también copian patrones de navegación y de interacción social. Tushar Richabadas, de Barracuda, advierte sobre otra amenaza más sutil: esos bots que no atacan directamente, pero que sacan información masiva de sitios web para hacer cosas no muy éticas.

En la política dominicana, el uso de bots ha traído controversia. En 2022, el senador Yván Lorenzo acusó al Gobierno de tener “granjas de bots” para atacar a los opositores y manipular tendencias. Aunque no hubo una investigación formal ni pruebas concretas, la denuncia reflejó una preocupación latente: la manipulación del debate público desde el anonimato digital.

Además de la desinformación, muchos bots se usan para amplificar discursos de odio. Están programados para actuar de manera anónima y en masa, difundiendo mensajes misóginos, racistas, xenófobos o de intolerancia política. No solo buscan agredir, sino también polarizar, provocar reacciones viscerales y deslegitimar voces críticas. Así, contaminan el espacio digital y convierten las redes en terreno fértil para la radicalización simbólica.

Los bots engañan y arman bulla. Usan técnicas como la sincronización de publicaciones, el uso masivo de “me gusta” y retuits, y la inserción estratégica de hashtags populares para empujar el contenido hacia la viralidad. Incluso crean cuentas falsas que interactúan entre sí, simulando comunidades activas que refuerzan narrativas o atacan desde distintos ángulos.

Este comportamiento manipula los algoritmos de las plataformas -que priorizan lo más interactuado-, y contribuye a la polarización al dirigir mensajes diseñados para provocar indignación, miedo o adhesión emocional rápida. Aunque distinguirlos a simple vista es complicado, hay señales: actividad continua sin pausas, mensajes genéricos como “Qué buena noticia”, perfiles sin foto ni biografía real, publicaciones sincronizadas con otras cuentas y errores de traducción son pistas claras.

Medios como Wired, el MIT Technology Review y el Instituto Reuters han publicado guías prácticas para reconocer cuentas automatizadas. Aun así, expertos como el Dr. Samuel Linares advierten que, sin herramientas especializadas, detectar un bot sofisticado puede ser casi imposible.

El Digital News Report 2024 del Instituto Reuters confirma que esta preocupación no es solo de por aquí. Según el informe, el 59 % de los encuestados en 47 países tiene miedo de no poder distinguir entre noticias verdaderas y falsas en internet. Y con la inteligencia artificial metida en la generación de contenido, el desafío es aún mayor.

“La gente teme por la fiabilidad del contenido, especialmente en temas como la política”, afirma Nic Newman, autor del estudio. Una advertencia que resuena en un mundo donde el engaño puede venir con foto de perfil, nombre común y una redacción casi perfecta. Porque cuando el engaño se disfraza de humano, la desinformación deja de parecer ficción. Y las redes, que prometían conexión y pluralidad, se convierten en un campo de batalla donde la verdad también necesita defensa.

Ver todo