Esa situación tiene capas que la IA no puede resolver.
Primero una dimensión emocional: En ese momento Juan se carga de adrenalina, quizás miedo, bronca.
Después hay una dimensión relacional: ¿Quién es el otro conductor? ¿cómo está él también?
Y finalmente hay una dimensión ética genuinamente ambigua, porque puede que los dos tengan parte de razón.
La IA te puede decir «evalúa la situación con calma» o «verifica si hay heridos primero», cosas protocolares.
Pero la pregunta real acerca de qué debo hacer no es logística, es ¿cómo ser una buena persona en este momento de tensión? Y eso depende de tus valores, tu historia, el contexto específico, la otra persona.
La incertidumbre no es solo un problema individual, es también de expertos o instituciones grandes.
Está en los micro-momentos de la vida cotidiana, en decisiones que parecen pequeñas pero que construyen quiénes somos y cómo nos relacionamos.
Y ahí la IA no solo no ayuda, sino que si la consultás puede darte una respuesta que suena razonable pero que te desconecta de tu propio juicio moral justo cuando más necesitás ejercerlo.
Los sistemas de IA pueden erosionar ciertas dinámicas institucionales si se usan mal.
Por ejemplo, si reemplazan el juicio experto en lugar de apoyarlo, o si reducen la deliberación humana en decisiones importantes.
La preocupación por la transparencia y la rendición de cuentas es legítima.
Las instituciones han sobrevivido y adaptado a la imprenta, la radio, internet…
La IA no es cualitativamente diferente en ese sentido.
La IA puede fortalecer instituciones, por ej mejorando el acceso a la justicia, democratizando la educación, o ayudando a médicos a procesar grandes volúmenes de información.
Acortar tiempos
Hay ganancias enormes en eficiencia que pueden liberar a las personas para enfocarse en lo que realmente importa.
Incertidumbre
Los sistemas de IA modernos pueden trabajar con incertidumbre en cierto sentido, modelando probabilidades, escenarios posibles, rangos de error.
Lo que no pueden hacer bien es algo diferente pero más profundo: lidiar con la incertidumbre genuina, es decir, situaciones donde no se conocen ni siquiera las variables relevantes, donde el contexto humano, moral o político cambia las reglas del juego, o donde la decisión correcta depende de valores en conflicto.
Un médico frente a un caso ambiguo, un juez ante un dilema ético inédito, un periodista decidiendo qué historia merece contarse… ahí la IA puede informar pero no reemplazar el juicio.
Quizás, el riesgo real es que las personas olviden esa limitación y deleguen en la IA decisiones que requieren ese tipo de juicio humano.
Eso sí podría dañar instituciones, no porque la IA sea mala en sí, sino por un uso acrítico de ella.
Derecho, educación, prensa y medicina.
En el derecho el riesgo es quizás el más serio, porque una sentencia no es solo aplicar reglas a hechos, sino interpretar contexto humano, historia, poder.
Si un juez delega demasiado en una IA que le da una respuesta «segura», se pierde exactamente esa tensión creativa que hace evolucionar al derecho.
En la educación de pre o posgrado el peligro es más sutil.
Un estudiante que usa la IA para resolver todo lo que le genera incomodidad intelectual nunca desarrolla la tolerancia a no saber, que es justamente el músculo más importante del pensamiento crítico.
La incertidumbre en el aprendizaje no es un bug, es el proceso mismo.
En la prensa el problema es que el periodismo de calidad vive de hacer las preguntas correctas ante lo desconocido.
La IA es muy buena sintetizando lo que ya existe, pero es el médico y el paciente quienes toman las decisiones. Requiere un tipo de intuición que viene de la experiencia humana acumulada.
Lo interesante es que en todos los casos el problema no es que la IA sea incompetente, sino que puede crear una ilusión de competencia que hace que las personas bajen la guardia justo donde más la necesitan.
![]()

