Difícilmente se pueda negar hoy que la Inteligencia Artificial (IA) ocupa gran parte de nuestro interés y preocupación. Por un lado la admiración por lo que se puede hacer a bordo de una computadora, sobre todo usando esos programas con los cuales hasta se puede sostener una conversación y recibir asistencia: Chatbots como Alexa, ChatGPT, Gemini, Google Assistant, Meta, Grok y unos 20 más. Por otro el temor ante lo que el futuro nos puede tener reservado en términos de estabilidad en nuestra vida diaria. Obviamente, los medios se hacen eco de esta situación social y se aventuran en la investigación del tema, como lo demuestra el famoso medio neoyorquino que aquí nos sirve de referencia, el New York Times, que le ha dedicado un buen espacio con la participación de ocho profesionales que opinan informalmente sobre este tema que hoy desvela a gran parte de la humanidad. Aquí nos apoyamos en sus conclusiones (ver abajo).
De lo primero que advierten estos especialistas es del peligro de considerar, en pocos años más, a la IA como una persona legal, para atribuirle autoridad profesional a su información. Esta actitud equivocada será el resultado de creer que, porque algunos programas basados en IA pueden simular conversaciones humanas o escribir textos en tiempo real como respuesta a una pregunta, esa opinión tiene el respaldo total de un profesional humano. El usuario no sabe que el programa aprende a dar respuestas basado en información de interacciones pasadas. Ellas pueden ser válidas si las preguntas son simples y repetitivas, como lo es un pedido de turno o una cita con un profesional, un pedido comercial o se demanda la historia clínica de un paciente, pero no como para pedirle que planifique las vacaciones de su hijo.
En otras palabras, no se debe creer que porque uno pueda interactuar hablando con un programa de IA, esto ya significa que el programa ostenta un signo de inteligencia. La IA nunca podrá curar el cáncer en una persona ni podrá solucionar problemas científicos, al no poder actuar en las múltiples dimensiones de un problema. Sí podrá hacer contribuciones en el campo de la automatización de procesos repetitivos, el cual llegará recién para el 2032 o más allá. Para entonces, según las opiniones de referencia, la intensidad de su uso la hará aburrida y caerá en el mismo desinterés que hoy rodea al GPS.
Uno de los mayores problemas derivados del uso de la IA se da en la educación. En su función de tutora estudiantil, la IA se alimenta de una base de datos infinita que, obviamente, puede superar la capacidad del instructor. Y no solamente esto, también puede escribir textos si se le demanda. Pero, no funciona en la exploración de temas multimensionales. Ante una pregunta de cómo una obra literaria puede representar un acto simbólico de reacción contra algo y el intento de resolución imaginario de una contradicción real, histórica y política, la IA no ofrecerá una respuesta, porque la pregunta es multidimensional. Sí informará los datos biográficos de un autor, sus obras y posiblemente su contenido. Esto ha sido superado hoy en día eliminando “el deber en la casa”, como la composición casera de un artículo y sometiendo al estudiante a una conversación-debate, donde debe defender su punto de vista razonando y articulando una respuesta personal sobre un tema.
Equivocaciones que necesitan aclararse
1.Creer que la IA tiene habilidades mágicas que son imposibles de comprender y predecir para la mente humana es un error. Esta visión es impulsada por las compañías tecnológicas y lamentablemente asumida por el público y quienes detentan el poder hasta cierto punto.
2.La IA no es una herramienta totalmente bajo control humano. Es un agente que puede tomar decisiones e inventar ideas, pero no es consciente de las consecuencias.
3.Es un error asumir que la IA no va a afectar el trabajo manual. La IA está bajando las barreras del conocimiento y permitiendo hacer reparaciones por cuenta personal.
4.La gente está confundida acerca de los modelos de lenguaje que la IA genera, atribuyéndole inteligencia a una máquina que solamente imita, pero que no puede afrontar situaciones desconocidas. Su lenguaje carece de flexibilidad para ajustarse a situaciones inusuales.
5.Es un error creer que la IA es autónoma. Los sistemas actuales de IA no son más que adaptadores informáticos que se auto ajustan a un patrón o modelo, no pensadores independientes.
6.El hecho de que la IA cometa errores no significa que desaparezcan los riesgos asociados a su uso.
7.Es un error creer que la IA va a generar desempleo masivo. Las nuevas tecnologias cambian a veces la naturaleza del trabajo en la sociedad, pero no eliminan la necesidad de trabajar.
Hasta aquí nuestra fuente periodística. Pero, si quisiéramos ir más profundamente y preguntarnos si la IA puede desarrollar inteligencia propia, quizás debamos escuchar al autor Michael Pollan (https://www.facebook.com/watch/?v=1618638915811163) cuando dice que el origen de nuestra conciencia está en nuestros sentidos y sensaciones, no en los pensamientos, porque es a través de aquellos, de los sentidos, que nuestro cuerpo se comunica con nuestro cerebro y este decide actuar inteligentemente sobre el mismo. Ahora bien, ¿puede una máquina experimentar sensaciones humanas y transmitirlas a un programa electrónico? Obviamente no. Por lo tanto, no se puede hablar de que la IA pueda desarrollar una conciencia o una inteligencia igual a la humana.
Fuente principal:
https://www.nytimes.com/interactive/2026/02/02/opinion/ai-future-leading-thinkers-survey.html
