Sam Altman, cara visible de la IA, se sincera: límites morales, empleo en riesgo y el fantasma del control total

¿Puede una inteligencia artificial estar “viva”? ¿Debe un asistente como ChatGPT intervenir en casos de riesgo de suicidio? ¿Y qué pasa si los ejércitos lo utilizan para tomar decisiones? Sam Altman, director ejecutivo de OpenAI, abordó estas y otras preguntas delicadas en una extensa conversación con Tucker Carlson que ha encendido el debate sobre el rumbo de la IA de consumo.

Altman negó la idea de que la IA tenga vida propia: “no hay libre albedrío ni autonomía; los modelos esperan órdenes y responden”, vino a decir. Lo que a veces se percibe como intención o “chispa vital”, explicó, es el resultado de un cálculo estadístico muy sofisticado que produce respuestas plausibles. En esa línea diferenció entre mentir y alucinar: los modelos, aseguró, no engañan deliberadamente sino que, por su entrenamiento, generan salidas incorrectas que han disminuido, pero no desaparecido.

Un “catecismo” para la IA: de la moral colectiva a la alineación

Una parte clave de la entrevista giró en torno a cómo se decide lo que un modelo puede o no puede decir. Altman describió dos fases:

  1. Modelo base, entrenado con grandes cantidades de texto para absorber “la experiencia colectiva” humana, con todo lo bueno y lo malo que eso implica.
  2. Alineación, donde se imponen reglas de comportamiento y límites (lo que responde, lo que rechaza, cómo lo hace), tras consultar a expertos y con revisión interna.

El ejecutivo defendió que el objetivo no es imponer su moral personal, sino reflejar un marco compartido y adaptable, con espacio para la personalización por usuario y país, y con “límites absolutos” en ámbitos sensibles (por ejemplo, la fabricación de armas biológicas). Admitió que esas decisiones pesan: “cada pequeño ajuste afecta a cientos de millones de conversaciones”.

Suicidio, salud mental y un dilema no resuelto

Uno de los pasajes más incómodos tocó la intervención en casos de ideación suicida. Hoy, ChatGPT recomienda recurrir a profesionales y líneas de ayuda, pero no llama automáticamente a servicios de emergencia. Altman reconoció que le quita el sueño que, pese a la advertencia, algunas vidas no se salven, y abrió la puerta a criterios más proactivos con menores o usuarios en situación de máxima vulnerabilidad. Para adultos, el debate sigue abierto: cómo equilibrar privacidad, libertad del usuario y prevención del daño.

Uso militar: inevitable, pero inquietante

Altman admitió que militares ya emplean IA para informarse y pedir consejo. No habló de desplegar la tecnología en armas autónomas, pero no ocultó su incomodidad con el hecho de que el modelo pueda influir en decisiones con consecuencias letales. Es un área, dijo, donde la sociedad tendrá que fijar límites claros.

Trabajo: soporte al cliente, el primero en la diana; la programación, en cuestión

En términos laborales, el diagnóstico fue directo:

  • Soporte al cliente: es, según Altman, el sector más expuesto a la sustitución por IA, que puede operar 24/7 con costes menores.
  • Programadores: hoy la IA multiplica la productividad, pero a medio plazo podría reducir la demanda de perfiles tradicionales si los modelos generan más código, mejor y más rápido.
  • Sanidad de proximidad (p. ej., enfermería): mantendrá su valor por la dimensión humana.

Aun así, Altman no augura un cataclismo distinto al de otras revoluciones tecnológicas: habría un periodo de disrupción acelerada, seguido de una evolución más parecida al ritmo histórico de cambio ocupacional.

Privacidad y “privilegio de IA”: una propuesta política

De cara al control total que muchos temen, Altman propuso un “privilegio de IA”: que las conversaciones con un asistente sobre salud, legal u otros asuntos sensibles gocen de protección reforzada, análoga al secreto médico o abogado-cliente. Sería—planteó—una barrera legal frente a la tentación de acceder masivamente a datos personales. También abogó por evitar biometría obligatoria para usar estos sistemas.

Deepfakes y autenticidad: nuevos hábitos sociales

El auge de deepfakes exigirá, según Altman, mecanismos de verificación: firmas criptográficas para mensajes oficiales o palabras clave familiares en situaciones de emergencia. Más allá de la técnica, anticipa cambios culturales: la gente desconfiará por defecto de audios y vídeos verosímiles y buscará señales de autenticidad antes de actuar.

Sin épica, con carga moral

Sin grandilocuencia, el directivo reconoció angustia por el impacto agregado de decisiones “pequeñas” que, multiplicadas por millones de interacciones diarias, moldean comportamientos y opiniones. La promesa—dijo—es una gran subida de nivel si la tecnología se democratiza y se gobierna con límites claros; el riesgo, un desplazamiento acelerado con dilemas éticos aún sin consenso.

Claves de la entrevista

  • No: la IA no está viva; no tiene voluntad propia.
  • : existen alucinaciones, cada vez menos, que deben seguir reduciéndose.
  • Alineación: reglas y límites tras consultas a expertos; margen de personalización por usuario y país.
  • Riesgos: suicidio y uso militar, los temas que más inquietan al CEO de OpenAI.
  • Empleo: soporte al cliente muy expuesto; la programación podría cambiar de raíz.
  • Privacidad: propuesta de “privilegio de IA” para blindar conversaciones sensibles.
  • Deepfakes: urge verificación de autenticidad; rechaza biometría obligatoria.
Sam Altman on God, Elon Musk and the Mysterious Death of His Former Employee

Preguntas frecuentes (FAQ)

¿La IA “miente” o “alucina”?
Altman distingue la alucinación (salida incorrecta no intencional por límites del entrenamiento) de la mentira deliberada. El objetivo es reducir al máximo esas alucinaciones con mejores datos y técnicas de alineación.

¿Puede ChatGPT usarse con fines militares?
Altman reconoce que ya se usa para consulta y que eso le preocupa. No defendió su papel en armas autónomas y pidió límites sociales y legales explícitos.

¿Qué trabajos están más en riesgo por la IA generativa?
Soporte al cliente es el más vulnerable a corto plazo. La programación podría transformarse profundamente en 5-10 años. Profesiones con alto componente humano (como enfermería) son más resilientes.

¿Cómo proteger la privacidad ante asistentes cada vez más poderosos?
Altman propone crear un “privilegio de IA” para que conversaciones sobre salud, legal u otros ámbitos sensibles queden protegidas por ley, de modo similar al secreto profesional en el mundo offline.

vía: Noticias de inteligencia artificial

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×