En este momento estás viendo ¿Cómo aprenden las máquinas?

¿Cómo aprenden las máquinas?

🔙🔜 No dejes de ver todo el ciclo para que complementes las ideas de este artículo

Para que contextualices adecuadamente esta sexta parte es necesario que primero hayas mirado el vídeo y los capítulos anteriores. Puedes ir directamente haciendo clic en los números. 1234, 5

En la quinta entrega vimos las implicaciones que está teniendo y va terne la inteligencia artificial en nuestra forma de entender la movilidad humana, y con ella la forma en que nos relacionamos y proyectamos las ciudades. El reto de la seguridad física es uno de los grandes escollos de la IA, porque debe aprender a prever todas las posibles contingencias que se presentan en un simple trayecto de camino. Esto nos lleva a esta sexta entrega sobre ¿Cómo aprenden las máquinas?

Parece algo que cada vez más natural, pero es una locura ¿Cómo aprenden las máquinas? Parece que estuviéramos hablando de seres vivos. ¿Cómo aprenden los animales?¿Cómo aprenden los y las bebés?

Una de las aspiraciones que rodea todo el desarrollo de la IA es poder emular la capacidad de aprendizaje y toma de decisiones posterior que tienen los mamíferos “superiores”, y en particular los seres humanos. Así que cuando hablamos de ¿Cómo aprenden las máquinas?, nuestro mejor espejo somos nosotros mismos. IBM, en este documental echa mano de algunos de estos supuestos.

Intro Video

Hacer inventario y uso de nuestra experiencia previa

Una de las características fundamentales del proceso de aprendizaje humano se basa en la capacidad de extraer de las experiencias información crucial para la toma de decisiones futuras. Esto que lo hacemos de manera automática y casi inconsciente, es una de las razones del avance del aprendizaje infantil. Con la ayuda de los mayores, niños y niñas aprenden que si acercan la mano a una estufa caliente pueden quemarse y eso les provocará una experiencia de dolor, que la mayoría de las veces la catalogaremos como displacetera y que por tanto, en teoría, habilitará a estas personas a no volverlo a hacer en el futuro o a tener cuidado cuando tengan que manipularla. Y así con todo.

La IA tiene este reto, recoger información, analizarla y a partir de los resultados de las pequeñas decisiones del pasado construir un nuevo árbol de posibles decisiones.

Reto y amenaza

Este proceso de aprendizaje que se ha programado para las máquinas, inspirado en la manera en que aprendemos los humanos está lleno también de implicaciones éticas que van a alterar (lo están haciendo) nuestra manera de comportarnos.

Si una IA aprende a jugar ajedrez y se vuelve imbatible puede sonar asombroso, pero…

¿Qué pasa (digámoslo en presente) cuando tengamos que decidir sobre aspectos éticamente difíciles?

Puede que sigamos la recomendación de nuestro robot sobre la mejor opción nutricional del desayuno, pero ¿Y si se trata de regañar a nuestras hijas? ¿O de orientarles sobre una decisión vital acerca de su vocación en la vida? ¿O sobre echar a un empleado?

¿Cómo nos defenderemos de una máquina que ha aprendido a tomar siempre la mejor decisión entre miles de opciones posibles?

¿Podremos usar en un juicio el argumento de que seguimos nuestra intuición para “desobedecer” la recomendación que la IA nos estaba haciendo ante un dilema ético?

Aprendizaje automático

El aprendizaje en el ser humano recorre un camino que va desde lo “muy consciente”, donde tenemos que estar atentos a cada procedimiento que nos lleve a alcanzar un objetivo, hasta el automático, donde simplemente hemos incorporado los pasos y protocolos y ya no tenemos que pensar en ellos fragmentadamente para obtener un desempeño medianamente eficiente.

Las máquinas van por ese camino, recogen cientos de información, la “computan”, analizan, cruzan, mezclan y elaboran una serie de posibles mejores rutas de respuestas para el problema en cuestión o para alcanzar un objetivo determinado.

Más potencia, Más rápido

En neurociencia aún se tienen discusiones sobre la capacidad de almacenamiento del cerebro humano y si éste tiene un límite. Tanto la capacidad de memoria como lo rápido que podemos hacer cálculos constituyen otras de las asombrosas características de la inteligencia de los seres humanos y otros animales. En milésimas de segundo somos capaces de tomar una decisión que nos salva la vida (o nos la quita). No somos infalibles. Vivimos en compleja red de versiones de la realidad que hace que el consenso sea difícil.

Si una IA aprende a jugar ajedrez y se vuelve imbatible puede sonar asombroso, pero…

Sabemos que las máquinas tampoco son infalibles. En la medida en que tengan mayor capacidad de almacenamiento, mayor potencia de procesamiento, que llevará a generar respuestas cada vez más rápidas, su falibilidad se irá reduciendo y superará en mucho la de los seres humanos.

Para decirlo de otra manera, mientras nuestra capacidad de tomar mejores decisiones va al ritmo paquidérmico de nuestra evolución biológica (y psico-social) las máquinas evolucionan vertiginosamente, no solo para alcanzar el estado en el que estamos las personas sino para superarnos.

No nos engañemos, ¡somos nosotros!

Podemos empezar a perder de vista que somos nosotros, los humanos los que estamos al frente de todo este desarrollo. Hay humanos produciendo máquinas más eficientes, inventando o recreando nuevas matemáticas que nos entregarán mejor algoritmos, que lo harán más pequeños, más móviles, más cercanos, más eficientes, más eficaces.

La industria de la atención, miles de vídeos, de fotos, de comentarios a través de las redes sociales, están alimentando el Big Data. Los resultados de la IA son el resultado de la síntesis de miles de millones de millones de datos que nosotros mismos estamos aportando.

Los “programadores conscientes”(PCons) son estos genios matemáticos e informáticos que están produciendo lenguajes y códigos de programación. Pero los programadores “no conscientes” (PNCons) somos el resto de la humanidad, que no son ellos. Las grandes corporaciones tecnológicas les están dictando a los «PCons» qué programar, hacia dónde quieren llevar el consumo y el comportamiento de las personas. Pero, nosotros los «PNCons», programamos las IA cada segundo cuando señalamos a través de un simple gesto en nuestros dispositivos cuál es nuestra inclinación sobre un tema en particular. De nuevo, desde una visión apocalíptica, nosotros estamos construyendo el monstruo que nos va a engullir. Los «PCons» ya no solo se centran en qué quieren que veamos, ahora se centran en crear las condiciones ideales (más atractivas, más persuasivas, más adictivas) en que les entreguemos nuestro “background”, nuestro “know how”, de nuestras tomas de decisiones.

Cada vez que hablamos de la IA, pareciera que estuviéramos hablando de otra especie de ser inteligente que está cohabitando con nosotros y que potencialmente, ante nuestra falible humanidad, nos reemplazará en los aspectos fundamentales que garantice nuestra supervivencia o nuestro exterminio.

¿Llegarán pronto las máquinas a la conclusión que es uno de nuestros mayores secretos como humanidad?

A saber, que cada vez somos más conscientes que es el ser humano el causante de hábitats no sostenibles y que por tanto somos la mayor amenaza no solo para nosotros mismos, sino para el resto de la vida en la tierra.

¿Cuánto tardarán las máquinas que aprenden solas, que sacan conclusiones emergentes (no dependientes de los datos iniciales programados) para deducir que a quien debemos eliminar de la ecuación es el factor humano?

Ventajas, ventajas, ventajas

Por supuesto, ante las grandes soluciones que nos ofrece la IA, puede parecer injusto hacer cuestionamientos éticos, ya que podremos (está sucediendo) resolver grandes problemas médicos, predicción de catástrofes, de enfermedades, de comportamientos potencialmente peligrosos. Todo parecen ser ventajas. Las posibilidades son inimaginables.

¿Pero a qué coste?

Dos de los grupos que han ido apareciendo en la literatura sobre el tema son quienes están dispuestos a pagar cualquier precio (intimidad, leyes, asesinatos, corrupción, medidas impopulares) con tal de no ponerle obstáculos a estos desarrollos, y por el otro personas que se están preguntando si el precio que estamos pagando y pagaremos no es demasiado alto. Al fin y al cabo, una posible conclusión de los robots con IA súper avanzada será que los humanos sobramos en la tierra.

Inteligencia NO, Súper Inteligencia

Las máquinas, como nosotros están aprendiendo con el viejo método de ensayo-error. La diferencia es que nuestra capacidad de aprendizaje tiene muchas limitaciones. Puede parecer una contradicción. Los seres humanos podemos aprender durante toda la vida, incorporar nueva información y tomar mejores decisiones, pero a la vez ese capacidad, ese potencial, tiene muchas limitaciones. Si a la “capacidad” de la máquina que emula parte del procesamiento de datos que hacemos los humanos, dando un respuesta “coherente”, la llamamos inteligencia, ¿Cómo llamamos a las máquinas nos superen en casi todos los aspectos?

Sin ningún tipo de pudor, y en muchos momentos con más miedo que admiración, los expertos se están refiriendo a la IA como una Súper Inteligencia. Dentro de poco estaremos diciendo, Ultra, Mega, Súper Inteligencia. Casi con seguridad crearemos una palabra que no requiera tantos aumentativos. Es posible que la misma IA proponga la palabra.

¡Comparte tus impresiones!

¿Qué le enseñarías a una máquina si pudieras ser tú quien la programe o si fueras el modelo del que esta máquina aprenda?

Deja una respuesta