Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Inteligencia artificial vs inteligencia humana: ¿quién gana?

Profesora titular de Ciencias de la Computación y Tecnologías de la Información de Universidad da Coruña
IA VS INTELIGENCIA HUMANA

0

A medida que la IA se vuelve más avanzada, surge la pregunta de si algún día superará a la inteligencia humana. Aunque la IA ha demostrado ser capaz de realizar tareas específicas de manera eficiente, sigue siendo objeto de discusión si puede igualar o superar la inteligencia humana en términos de comprensión, creatividad y empatía.

La historia de la Inteligencia Artificial (IA) se remonta a la década de 1950, cuando el matemático británico Alan Turing propuso la posibilidad de construir máquinas capaces de pensar. En esa época, los investigadores comenzaron a desarrollar teorías y algoritmos para crear programas que pudieran realizar tareas que normalmente requerían inteligencia humana, como el razonamiento, la planificación y el aprendizaje. A mediados de la década de 1960, la IA había avanzado lo suficiente como para permitir el desarrollo de programas capaces de resolver problemas complejos de álgebra y teoremas matemáticos. En la década de 1970, la IA se centró en la creación de sistemas expertos, programas que podían realizar tareas que normalmente requerían conocimientos especializados, como el diagnóstico médico.

Utilizamos la IA cada vez que desbloqueamos el teléfono con nuestra cara o cuando Netflix nos recomienda contenido personalizado

Desde entonces, la IA ha evolucionado a pasos agigantados, gracias a la disponibilidad de grandes cantidades de datos y el desarrollo de algoritmos de aprendizaje automático y ‘deep learning’, y hoy en día, la IA es ampliamente utilizada en una variedad de aplicaciones, desde la detección de fraudes hasta la conducción autónoma de vehículos.

Irrupción en la vida cotidiana

En las últimas dos décadas, la IA ha irrumpido en nuestra vida cotidiana, y ya nadie duda del potencial de esta nueva tecnología. La utilizamos cada vez que desbloqueamos el teléfono con nuestra cara, o cada vez que entramos en plataformas como Netflix o Youtube y nos recomienda contenido personalizado. La IA también ha demostrado ser mejor que las personas en tareas que requieren un elevado conocimiento o complejidad. Un caso muy famoso fue el sistema IBM Watson, que ganó el programa de preguntas y respuestas ‘Jeopardy’, que se emite en Estados Unidos, venciendo a los dos mejores concursantes de la historia del programa. En 2017, la empresa DeepMind lanzó el programa AlphaZero, que logró en 24 horas un nivel de juego sobrehumano en ajedrez, shogi y Go al derrotar a campeones del mundo y a otros programas de inteligencia artificial previos que ya cosechaban resultados excepcionales. Este hito fue particularmente importante en la historia de la IA ya que, a diferencia de otros programas, no aprendió de partidas humanas sino con autoaprendizaje. También en 2017 apareció Libratus, un sistema de inteligencia artificial que consiguió vencer a los mejores jugadores de ‘No-limit Texas Hold ‘Em’, una de las variantes más complejas del póker. Para conseguir tal hazaña, Libratus tuvo que aprender a ir de farol, aunque nadie le había dicho que era necesario mentir. Sus creadores le proporcionaron la descripción del juego, pero no le dijeron cómo había que jugar. Durante meses, Libratus jugó millones de partidas hasta que alcanzó un nivel de juego que desafiaba a los mejores jugadores humanos.

La IA es capaz de superarnos en campos muy complejos, pero no logra habilidades aparentemente sencillas como atarse los cordones

A pesar de la percepción generalizada de que la inteligencia artificial está desplazando a los seres humanos y superando su capacidad intelectual, esto no es cierto. En realidad, estamos viviendo en una época en la que la inteligencia artificial se limita a tareas específicas, conocida como la era de la inteligencia artificial ‘estrecha’. En otras palabras, si bien los sistemas de IA pueden ejecutar tareas complejas, todavía están muy lejos de igualar la inteligencia general que poseemos los humanos. Aunque la IA es capaz de superarnos en campos muy complejos, es incapaz de conseguir habilidades aparentemente sencillas que tenemos las personas, como atarnos los cordones o ir andando por la calle sin chocar con nada mientras pensamos en nuestras cosas. Este hecho está relacionado con la paradoja de Moravec, que dice: “Es relativamente fácil conseguir que los ordenadores muestren capacidades similares a las de un humano adulto en un test de inteligencia o a la hora de jugar a las damas, y muy difícil lograr que adquieran las habilidades perceptivas y motoras de un bebé de un año”. 

Otra paradoja relacionada con el desempeño de la IA es la de Polanyi, que postula que las personas sabemos hacer cosas que no sabemos explicar. Esta incapacidad que tenemos los humanos de analizar introspectivamente nuestras decisiones y acciones es sin duda un obstáculo para avanzar en diseño de máquinas que puedan replicarlas. Sin embargo, una forma de superar este obstáculo es la subrama de la IA llamada aprendizaje automático, que se basa en ofrecer al sistema un número muy elevado de ejemplos con su resultado esperado. Por ejemplo, para que un sistema aprenda a distinguir entre perros y gatos, tendremos que proporcionarle muchas imágenes de perros y gatos (indicándole lo que es en cada caso), sin que sea necesario explicar particularidades como que los gatos suelen tener la cola más larga o que el tamaño de los perros es mucho más variable que el de los gatos. El problema de esta aproximación es que podemos acabar con un sistema muy preciso, pero que no podemos explicar cómo funciona o cómo está tomando las decisiones. Este modelo, conocido como caja negra, es incompatible con la necesidad de que la inteligencia artificial sea ética y confiable, como demandan las Directrices éticas para una inteligencia artificial confiable de la Unión Europea, y la Estrategia Nacional de Inteligencia Artificial española.

No podemos terminar este artículo sin hablar de la última revolución en el campo de la IA. A finales de 2022, la empresa OpenAI lanzó ChatGPT, el ‘chatbot’ más avanzado hasta la fecha, que consiguió sorprender a propios y extraños en el campo de la IA. Es un programa informático con el que podemos conversar a través de lenguaje escrito. Pronto se descubrieron sus increíbles habilidades para escribir textos o programar código fuente. De hecho, varios párrafos de este artículo han sido escritos por esta herramienta.

Leer es entender

Hace unos años, los científicos Gary Marcus y Ernest David explicaban cómo, a pesar de los recientes e impresionantes avances en procesado del lenguaje natural, la inteligencia artificial todavía no podía leer un libro, si entendemos leer como entender su contenido. Ponían a prueba a GTB (Google Talk to Books) en la comprensión de la siguiente historia extraída del libro ‘Farmer boy’, de Laura Ingalls Wilder:

“Almanzo, un niño de nueve años, encuentra una billetera llena de dinero tirada en la calle. El padre de Almanzo cree que la billetera podría pertenecer al Sr. Thompson, y Almanzo encuentra al Sr. Thompson en una de las tiendas de la ciudad.

Almanzo se volvió hacia el Sr. Thompson y le preguntó: “¿Has perdido una billetera?” El Sr. Thompson dio un respingo. Se llevó una mano al bolsillo y casi gritó.

“Sí, ¡la he perdido! ¡Con mil quinientos dólares en ella! ¿Qué pasa con eso? ¿Qué sabes al respecto?”.

“¿Es esta?”, preguntó Almanzo.

“¡Sí, sí, es esta!”. Dijo el Sr. Thompson, arrebatándole la billetera. La abrió y rápidamente contó el dinero. Contó todos los billetes dos veces. Luego exhaló un largo suspiro de alivio y dijo: “Bueno, este maldito muchacho no robó nada”.

Un sistema inteligente que comprenda textos debería ser capaz de responder a preguntas como “¿Por qué el Sr. Thompson se llevó la mano al bolsillo?”, “Antes de que Almanzo hablase, ¿sabía el Sr. Thompson que había perdido su billetera?”, “¿A qué se refería Almanzo cuando preguntó si era ésta?”, “¿Estaba todo el dinero todavía en la billetera?”. Todas estas preguntas son muy fáciles de responder para las personas, pero GTB no era capaz de hacerlo, ni ninguna herramienta hasta la fecha. Sin embargo, ChatGPT sí es capaz de responder acertadamente a esas preguntas, lo que abre la puerta a herramientas de IA que exhiban cierta comprensión del contenido de los documentos. 

Tampoco es capaz de determinar que un número no puede ser primo, tiene problemas de comprensión lectora y mezcla conceptos

Pero no es oro todo lo que reluce, y este sistema todavía en desarrollo comete errores. Por ejemplo, y al igual que muchos sistemas de IA, contiene sesgos en sus respuestas derivados de los datos sobre los que ha aprendido. También suele encontrar dificultades en los cálculos matemáticos, ya que no es capaz de determinar que un número par no puede ser primo. ChatGPT es lo suficientemente inteligente como para aprobar exámenes complejos y prestigiosos, aunque no con calificaciones particularmente altas, como ha ocurrido con la selectividad española o con el BAR (examen del estado de Nueva York que posibilita ejercer a los abogados en cualquier parte del mundo). Por supuesto, y debido a que no conoce la verdad absoluta, es una potencial fuente de desinformación, y es famoso por mezclar conceptos y emitir afirmaciones que no tienen sentido. 

Estamos ante una nueva realidad en la que la IA puede realizar trabajos que requieren cierta comprensión y creatividad, aunque debemos seguir vigilando de cerca las limitaciones existentes y proteger los derechos fundamentales de las personas. Nos espera un futuro apasionante en la frontera entre la inteligencia artificial y la humana. Será necesario seguir contando con la inteligencia humana para conseguir nuevos avances tecnológicos que, sin lugar a duda, tendrán que ser supervisados por personas.

Etiquetas
stats