Los ordenadores clásicos hablan en el lenguaje de bits, que toman valores de cero y uno. Los computadoras cuánticas, como las que Google está construyendo, usan qubits, que pueden tomar un valor de cero o uno, y también una combinación compleja de cero y uno al mismo tiempo. Los qubits son, por lo tanto, exponencialmente más poderosos que los bits, capaces de realizar cálculos que los bits normales no pueden. Pero, debido a este cambio elemental, todo debe ser re-desarrollado: el hardware, el software, los lenguajes de programación e incluso el enfoque de los programadores a los problemas.
Hay un cierto revuelo con la tecnología detrás de ChatGPT. Ya está revolucionando la programación neurolingüística (PNL) médica. Hasta ahora los clínicos e investigadores confiaban en textos médicos estructurados con precisión y listos para analizar que venían de la PNL. Este nuevo transformador, ChatGPT, es un nuevo potente jugador en la industria de la estructuración de textos y forma parte de la Inteligencia Artificial (IA) como la PNL que es machine learning.
Sin embargo, el alboroto es impresionante porque hay alumnos en Estados Unidos y otros lugares que lo han empezado a utilizar para realizar trabajos académicos, pero cuidado que todavía da errores. Sin embargo, podría llegar a sustituir a Google como buscador de Internet. ChatGPT tendría la respuesta, ya sea porque la sabe o por buscarla en Internet, gracias al entrenamiento que hay detrás de ella, con más de 175 millones de parámetros. Da respuestas correctas basadas en la información que le han dado. Sus algoritmos son capaces de comprender lo que le preguntan los usuarios con alta precisión, incluso si hay adjetivos o valoraciones. Después, puede responder algo con coherencia, para mantener conversaciones u ofrecer datos exactos a lo que se pide.
A nivel técnico funciona agrupando palabras y frases que ha visto antes y tiene almacenadas. Por ejemplo, si lo usas para generar una biografía, acierta en algunas cosas y otras no, pero quién lo use sólo sabrá si hay errores si de verdad conoce la vida del biografiado. ChatGPT cuando esté más refinado, que lo estará en breve, va a tener un impacto en la sociedad, pero no es una solución para lograr sistemas inteligentes de verdad. No va a servir para los coches autónomos o para los robots domésticos. En realidad, aún no está claro cuáles van a ser las aplicaciones de ChatGPT. Una preocupación mayor de su uso acrítico es la desinformación, que se acelerará de forma dramática. Se usará, pues siempre habrá alguien dispuesto, para propaganda, para hacer páginas web fake y para engañar a la gente.
Una estricta atención a los costes de oportunidad da lugar a la eliminación de aquellas actividades en las que éstos sean superiores al valor público creado. En síntesis, para nuestro sistema sanitario hay que aminorar actividades rutinarias que serán automatizables en breve (vía IA y robótica), y hasta ahora han estado servidas con empleados de baja cualificación, con retribuciones por encima de mercado. Y, sin embargo, elevar en dosis masivas el talento, con empleados de alta cualificación y salarios más estimulantes.
Para el usuario medio no es fácil distinguir cuán inteligente es uno de estos sistemas, pero ChatGPT no soluciona ninguno de los problemas básicos que se llevan intentando resolver durante años. Primero, no es muy fiable, para una misma pregunta, a veces da información correcta, otras veces no. Segundo, tiene el problema que en IA llaman alucinaciones, es decir, se inventa información y no hay ninguna señal que avise de que se está inventando algo. Inventa incluso referencias bibliográficas.
La inteligencia artificial general como un sistema que puede razonar por sí mismo y entender el mundo está muy lejos. Que ChatGPT sea peligroso es diferente de que sea una IA potente. Si acaba siendo peligroso o no va a depender de a qué sistema se conecte. Si conectas algo así a la red eléctrica o a un arma, evidentemente, se convierte en una amenaza. El peligro de un sistema así puede venir de cuán inteligente es, pero también del poder que se le otorga. Si ChatGPT lleva a una persona ingenua a creer que es inteligente cuando no lo es, ese en sí es el peligro.
Todos estos grandes modelos lingüísticos se inventan cosas, literalmente alucinan, y es un problema inherente a cómo funcionan y han sido diseñados. El ChatGPT es a veces brillante y otras estúpido. Y la respuesta es que coge trozos de texto de aquí y allá, los pega y los reproduce. Pero no entiende la relación entre esos trozos. El ejemplo de dar por muerto a Noam Chomsky ha sido realmente embarazoso, ya que ha dado múltiples entrevistas y charlas este año, pero el sistema es tan peligrosamente estúpido que no es capaz de entender que la gente que da conferencias no puede estar muerta. Esta IA está aprendiendo y en cada vez menos tiempo irá a mejor. Interesante su seguimiento.