Geoffrey Hinton dice solo una forma salvará a la humanidad de la IA superinteligente

By Ryan
4 Min Read

Geoffrey Hinton, conocido como el “padrino de la IA” y ganador del Premio Turing, afirmó nuevamente que la tecnología que ayudó a desarrollar puede representar un riesgo existencial para la humanidad si no se adoptan medidas drásticas. El investigador, exintegrante de Google, ha estimado anteriormente una probabilidad del 10% al 20% de que la inteligencia artificial pueda acabar con la especie humana, y esta semana volvió a mostrar escepticismo sobre el rumbo que están tomando las grandes empresas tecnológicas.

Hinton sostiene que los intentos de algunas firmas por mantener a las personas “dominantes” frente a sistemas “sumisos” son una estrategia equivocada. En su diagnóstico, la única manera viable de minimizar el peligro es frenar el ritmo de escalado de modelos, imponer límites claros a la capacidad y autonomía de los sistemas y priorizar diseños que disminuyan la posibilidad de comportamientos imprevistos. Según analistas, su postura supone un llamado a mirar menos al marketing de capacidades y más a la gobernanza y la seguridad técnica.

En el pasado, Hinton advirtió sobre escenarios en los que sistemas superinteligentes podrían actuar de forma independiente a los intereses humanos. Hoy critica lo que él describe como una cultura dentro de la industria que prefiere soluciones de “alineamiento” que dependen de la buena voluntad de las empresas y de optimizaciones internas, en vez de marcos regulatorios robustos y límites en el desarrollo.

La respuesta del sector tecnológico ha sido variada. Algunos investigadores y directivos reconocen la necesidad de marcos regulatorios y de una pausa temporal en el despliegue de modelos más potentes; otros sostienen que la innovación responsable puede lograrse sin frenos drásticos, mediante auditorías independientes y mejoras en los métodos de seguridad. Observadores señalan que la tensión entre acelerar productos y garantizar seguridad es central en la discusión pública mundial.

En Costa Rica, expertos en ética tecnológica y políticas públicas ven la advertencia de Hinton como una señal para reforzar la participación internacional en foros de gobernanza de IA. Especialistas consultados por este medio indicaron que, aunque el país no es un actor dominante en la investigación de modelos de gran escala, sí puede contribuir mediante políticas de compra pública responsable, formación en alfabetización digital y adhesión a normas internacionales que prioricen la seguridad.

El debate además plantea dilemas económicos y laborales: limitar la capacidad de los modelos podría ralentizar ciertos beneficios comerciales y aplicaciones automáticas, pero también reduciría riesgos sistémicos. Para los defensores de la cautela, el costo de no actuar puede ser mucho mayor.

La voz de Hinton, por su trayectoria y sus advertencias previas, vuelve a presionar a gobiernos y empresas para que tomen medidas tangibles. En un panorama donde la IA avanza con rapidez, sus colegas coinciden en la necesidad de diálogo abierto y acciones coordinadas; la diferencia está en cuánto se está dispuesto a frenar el impulso tecnológico para garantizar la seguridad a largo plazo.

Share This Article