Desde hace varias décadas, los investigadores trabajan en el desarrollo de una inteligencia artificial (IA) que pueda resolver un problema por sí sola.
Inicialmente, se trabaja en la IA simbólica basada en reglas. Pero esta forma de IA es muy limitada. Solo es adecuada para ámbitos en los que se pueden determinar reglas claras para todas las situaciones imaginables. A partir de los años 80 se producen grandes avances en los programas de autoaprendizaje.
El aprendizaje automático significa que un ordenador aprende cómo tomar una decisión a partir de los ejemplos y la experiencia, sin estar programado para la solución de un problema específico. Los algoritmos especiales aprenden a partir de datos de muestra y desarrollan modelos que luego pueden utilizar para nuevos datos no vistos anteriormente. Cuando las máquinas de autoaprendizaje se entrenan con muchos ejemplos, desarrollan de forma independiente un proceso de toma de decisiones que se generaliza. Sin embargo, el modo en que los programas de autoaprendizaje llegan a sus decisiones es algo que ni siquiera los propios programadores suelen comprender. En función de la complejidad, se distinguen diferentes niveles de aprendizaje automático: aprendizaje supervisado, aprendizaje no supervisado, aprendizaje por refuerzo y aprendizaje profundo.
«Hoy tenemos máquinas que ya pueden aprender relativamente bien, pero aún no tenemos máquinas que puedan pensar. Desarrollar este tipo de máquinas es el gran reto.»
Bernhard Schölkopf, director del Instituto Max Planck de Sistemas Inteligentes de Tubinga
¿Cómo aprende la IA?
Aprendizaje basado en reglas
El aprendizaje basado en reglas, también llamado IA simbólica, se basa en modelos lógicos y suele denominarse IA «clásica». Decide según reglas claras definidas de antemano en el código del programa.
Un ejemplo de esta forma de IA es Deep Blue, el programa informático que derrota por primera vez al entonces campeón mundial de ajedrez Kasparov en 1996. Trabaja con IA simbólica y debe su habilidad en el juego principalmente a su enorme potencia de cálculo. El software de ajedrez calcula una media de 126 millones de posiciones por segundo. Deep Blue no es realmente inteligente, pero es muy, muy rápido.
Aprendizaje basado en reglas
El aprendizaje basado en reglas, también llamado IA simbólica, se basa en modelos lógicos y suele denominarse IA «clásica». Decide según reglas claras definidas de antemano en el código del programa. Un ejemplo de esta forma de IA es Deep Blue, el programa informático que derrota por primera vez al entonces campeón mundial de ajedrez Kasparov en 1996. Trabaja con IA simbólica y debe su habilidad en el juego principalmente a su enorme potencia de cálculo. El software de ajedrez calcula una media de 126 millones de posiciones por segundo. Deep Blue no es realmente inteligente, pero es muy, muy rápido.
Aprendizaje supervisado
En el aprendizaje supervisado, las personas evalúan los datos de entrenamiento y de prueba y los asignan a grupos. Durante el periodo de entrenamiento, la IA aprende a llamar correctamente «gato» a las imágenes de gatos, por ejemplo. Si a un algoritmo entrenado para decidir entre un perro y un gato se le muestra una imagen de un elefante, la IA no puede resolverlo. Sin embargo, estos algoritmos, limitados a un campo específico, son muy fiables y precisos si los datos de entrenamiento son lo suficientemente amplios y de alta calidad.
El análisis de imágenes con métodos de aprendizaje ya desempeña un papel importante en el diagnóstico por imagen. Varios estudios demuestran que la IA puede realizar diagnósticos más rápidos y a menudo más precisos que muchos profesionales de la medicina a la hora de evaluar el cáncer de piel, por ejemplo. Los humanos y la IA consiguen los mejores resultados juntos: la IA evalúa primero si se trata de un cáncer de piel o de un cambio inofensivo en la piel. Los especialistas deciden entonces el tratamiento.
Aprendizaje por refuerzo
En el aprendizaje por refuerzo, el sistema de aprendizaje toma decisiones con arreglo a las cuales actúa posteriormente. Por cada acción, el sistema recibe una retroalimentación positiva o negativa. De este modo, el algoritmo aprende cada vez mejor el éxito de las acciones individuales en las distintas situaciones. El deep learning es un método de aprendizaje por refuerzo en redes neuronales artificiales que imita al cerebro. Una red neuronal de este tipo consta de varias capas. Las capas individuales consisten en muchas neuronas artificiales que están conectadas entre sí y reaccionan a las neuronas de la capa anterior respectiva. Cuanto mayor sea la red, más complicados serán los asuntos que se puedan procesar.
Reconocimiento de voz y texto
El deep learning se utiliza para el reconocimiento de voz y texto, entre otras cosas. Por ejemplo, el servicio de traducción en línea DeepL, desarrollado en Colonia, y el programa de traducción simultánea Lecture Translator, del Instituto Tecnológico de Karlsruhe, trabajan con redes neuronales artificiales.
Reconocimiento facial
Las redes neuronales artificiales también se utilizan hoy en día en el reconocimiento facial. Solo en la capital británica, Londres, hay instaladas más de 600 000 cámaras, muchas de las cuales se utilizan también para el reconocimiento facial. La tecnología está pensada para ayudar a la policía a resolver o incluso prevenir delitos. Pero, ¿cuáles son los peligros de esta vigilancia? ¿En qué medida es compatible con la democracia y los derechos civiles?
Conducción autónoma
Los fabricantes de automóviles llevan décadas trabajando en la automatización de la conducción mediante diversos sistemas de asistencia. Muchas cosas ya son una realidad, por ejemplo, la adaptación automática de la velocidad o los sistemas de asistencia para aparcar. El gran objetivo es la conducción autónoma, en la que los programas informáticos con IA asumen el control total del vehículo y los humanos son solo pasajeros. Por un lado, esto evitaría muchos accidentes de tráfico, ya que hoy en día se producen muchos accidentes por culpa de errores humanos. Pero, por otro lado, también se plantean cuestiones fundamentales: ¿quién es el responsable en caso de colisión con un vehículo sin conductor?
Ejemplos de investigación en IA
Ven, investiga conmigo
El pequeño robot de cuatro patas SOLO 8 procede de los laboratorios de robótica del Instituto Max Planck de Sistemas Inteligentes de Tubinga y Stuttgart. El robot de investigación es un proyecto de código abierto; las instrucciones de construcción y la documentación de GitHub son de libre acceso. La mayoría de los componentes provienen de una impresora 3D, el resto se puede comprar fácilmente. Esto significa que los investigadores de todo el mundo pueden reproducir y seguir desarrollando SOLO 8 de forma económica y sencilla. La idea del proyecto es que cualquier laboratorio de investigación robótica pueda utilizar la tecnología, creando una plataforma de investigación unificada en todo el mundo. Porque si muchos científicos realizan experimentos en la misma plataforma, se obtienen datos comparables. Esto permite un progreso más rápido en el campo de la robótica.
Una larga exposición hace que las secuencias de movimiento altamente dinámicas del robot SOLO 8 se conviertan en una danza.
Una larga exposición hace que las secuencias de movimiento altamente dinámicas del robot SOLO 8 se conviertan en una danza.
da Vinci con gran tacto
Las interfaces hombre-máquina habituales hoy en día se centran sobre todo en oír o ver. Pero Katherine Kuchenbecker y su equipo del Instituto Max Planck de Stuttgart están convencidos de que, para muchas aplicaciones, los robots necesitan mejores capacidades de interacción táctil, así como una mayor inteligencia social. Por eso los científicos están enseñando a los robots a entender su entorno mediante el tacto. Esto es muy importante cuando se trata de personas que, por ejemplo, necesitan cuidados, así como para el uso de robots teledirigidos. Por ejemplo, Kuchenbecker continúa desarrollando el robot quirúrgico «da Vinci», que permite a los cirujanos operar a larga distancia. El sistema de IA envía los movimientos de los especialistas distantes al robot. Gracias a las nuevas funciones, ahora los médicos no solo pueden ver en la pantalla, sino también sentir directamente lo que hace el robot.