Revista 360 GradosRevista 360 Grados
  • Local
  • Nacional
  • Internacional
  • Política
  • Opinión
  • Deportes
  • Entretenimiento
  • Estilo de Vida
  • Tecnología
  • Revista Digital
    • Revistas de 2023
    • Revistas de 2024
Está leyendo: Los riesgos de la IA: ¿Por qué no es neutral y qué nos espera?
Compartir
Aa
Aa
Revista 360 GradosRevista 360 Grados
  • Local
  • Nacional
  • Internacional
  • Revista Digital
  • Política
  • Opinión
  • Deportes
  • Entretenimiento
  • Estilo de Vida
  • Tecnología
  • Local
  • Nacional
  • Internacional
  • Política
  • Opinión
  • Deportes
  • Entretenimiento
  • Estilo de Vida
  • Tecnología
  • Revista Digital
    • Revistas de 2023
    • Revistas de 2024
Have an existing account? Sign In
Redes Sociales
© Revista 360 Grados - Instrucciones para vivir en Puebla - Aviso de Privacidad
Revista 360 Grados > Noticias > Local > Los riesgos de la IA: ¿Por qué no es neutral y qué nos espera?
Local

Los riesgos de la IA: ¿Por qué no es neutral y qué nos espera?

Zeus Munive
Última actualización: 2026/01/30 | 2:11 PM
Publicado por Zeus Munive Tiempo de Lectura: 2 mins
Riesgos de la Inteligencia Artificial y ética digital en Puebla
Marcelo García Almaguer en el Salón Barroco de el edificio Carolino
COMPARTIR

Puebla, Pue. — No es una herramienta más. La tecnología actual es, en esencia, una «decisión humana congelada». Bajo esta premisa, Marcelo García Almaguer ha lanzado una alerta sobre los riesgos de la Inteligencia Artificial (IA) y la urgencia de recuperar el pensamiento crítico antes de que los algoritmos decidan por nosotros.

Desde la Agencia de IA de la BUAP, se plantea un debate que trasciende lo técnico: el peligro no son las máquinas que piensan, sino los humanos que dejan de hacerlo.

Sesgos y algoritmos: El rostro invisible de los riesgos de la IA

Uno de los mayores riesgos de la Inteligencia Artificial radica en su supuesta neutralidad. García Almaguer advierte que detrás de cada línea de código hay ideologías e intereses institucionales. Al automatizar procesos, también se amplifican los sesgos y prejuicios de sus creadores.

La IA ya no solo recomienda música; influye en:

  • Campañas políticas y formación de opinión pública.

  • Decisiones de consumo y relaciones personales.

  • Sistemas de seguridad y justicia social.

Cuando una sociedad delega su criterio a un sistema automatizado, está delegando también su responsabilidad ética.

Marcelo García Almaguer
Marcelo García Almaguer advierte de los riesgos del mal uso de la IA

Gobernanza frente a la injusticia algorítmica

Para mitigar los riesgos de la Inteligencia Artificial, la gobernanza no debe verse como un freno burocrático, sino como una armadura social. A diferencia de otras revoluciones industriales, la IA se integró en nuestras vidas en tiempo récord, dejando atrás la capacidad de las instituciones para regularla.

«La IA no amplifica fuerza, amplifica criterios. Y un criterio sin ética se traduce en injusticia social», señala el análisis.

El factor humano como única solución

Citando a figuras como Noam Chomsky, se refuerza la idea de que enfrentamos un reto inédito. El mayor de los riesgos de la Inteligencia Artificial es la pérdida de la conciencia histórica. Por ello, la apuesta educativa debe centrarse en formar carácter y criterio, no solo operadores técnicos.

Interesante para usted:

Lupita Cuautle frena delitos en San Andrés Cholula: Informe 2026

BUAP aprueba Presupuesto 2026: Casi 10 mil mdp y cambios en Radio y TV

Ariadna Ayala arranca rehabilitación de la calle 5 Norte en Atlixco

Fortalece Gobierno de Pepe Chedraui resiliencia urbana

Ayala fortalece la seguridad con nuevo equipamiento policial

Compartir esta Publicación
Facebook Twitter Flipboard Whatsapp Whatsapp LinkedIn Telegram Email Copiar enlace Imprimir
Publicación Anterior Grupo KidZania lanza descuentos especiales por el puente del 2 de febrero

Redes Sociales

FacebookMe Gusta
TwitterSeguir
InstagramSeguir
YoutubeSuscribirse
TiktokSeguir

Podcast

Redes Sociales
© Revista 360 Grados - Instrucciones para vivir en Puebla - Aviso de Privacidad