El responsable del área de IA en Microsoft, Mustafa Suleyman, aseguró en una entrevista que la Inteligencia Artificial no posee conciencia. Esto es algo exclusivo de los seres biológicos. Según explicó, los modelos de IA pueden ejecutar tareas mejor que los humanos en muchos casos, pero eso no los convierte en entidades conscientes. Para él, la IA sigue siendo un instrumento poderoso, diseñado para procesar información y generar resultados, sin emociones ni experiencias reales.
Suleyman, cofundador de Inflection AI antes de unirse a Microsoft, aclaró que los sistemas de IA no sienten tristeza, dolor ni placer, aunque puedan simular esas sensaciones en sus respuestas. “La IA no experimenta el sufrimiento, solo crea una narrativa sobre lo que sería sentirlo”, señaló. Añadió que este punto es esencial para diferenciar la simulación del comportamiento humano de la experiencia genuina, recordando que solo los organismos biológicos pueden sentir y reaccionar ante el dolor.
El directivo fue claro al decir que, bajo los métodos actuales de desarrollo, la IA no alcanzará la conciencia en el futuro cercano, salvo que surjan nuevas formas radicales de construir y entrenar modelos. También defendió que el escepticismo hacia la IA es necesario, porque evita caer en una confianza ciega en una tecnología que todavía no entendemos por completo.
La IA es inconsciente…
Lo que plantea Suleyman es sensato. En una época en la que muchos hablan de la IA como si fuera un ser pensante, recordar que no siente ni entiende lo que hace es poner los pies sobre la tierra. Por más convincente que suene, una IA solo imita lenguaje y emociones a partir de patrones; no hay conciencia detrás de sus palabras.
Aun así, su poder no se puede subestimar. La IA no necesita sentir para transformar el mundo, y ahí radica tanto su utilidad como su riesgo. La capacidad de automatizar decisiones sin empatía plantea desafíos éticos profundos, sobre todo cuando sus errores pueden afectar vidas reales.
Personalmente, creo que la discusión sobre si la IA “piensa” o “siente” distrae de lo importante, cómo la usamos y quién la controla. No necesitamos una IA consciente para tener problemas, basta con una mal administrada.






