Me gusta saltar al vacío cuando hay agua debajo. A veces, me susurra al oído algún acantilado junto al mar o un peñasco prominente en un barranco de río. Entonces me pongo a investigar para decidir si salto o no. Analizo principalmente tres variables. La primera de ellas es la altura del peñasco. A mayor altura es menos probable que salte. La segunda es lo cristalino del fondo. A mayor claridad, mayor probabilidad de salto. La tercera es el mood aventurero que llevo ese día. Hay días que estoy más saltarín que otros. Conjugo el valor de estas tres variables y decido. Si estoy muy aventurero, pero el fondo no se ve claro, no salto. Si está despejado, pero el salto es elevado, dependerá de lo atrevido que me sienta ese día. Para un salto de 10 metros, con un fondo despejado de 5, por ejemplo, y un valor de atrevimiento de 7, salto. Pero si el fondo está sucio, pongamos un 3, ya no salto.
Así funciona una neurona artificial o perceptrón. Combina y analiza el valor de unas variables dadas y ofrece una salida o un resultado determinado. A tales valores, hay salto; a tales otros, no. Yo he ido afinando estos valores con mi experiencia. Al principio, una altura de 3 metros ya era un no. Hoy me atrevo con saltos de 12. El perceptrón aprende a través de mi experiencia. Yo debo decirle para qué ternas de valores hay salto y para qué otras, no. Así la neurona artificial, una vez entrenada con mi experiencia, es capaz de detectar un patrón y formularlo. Como son 3 variables que pueden tomar un valor de 1 a 10, las combinaciones posibles son casi 60 mil (310). Pero el perceptrón no necesita que le índique para cada una de esas 60 mil combinaciones si hay salto o no. Quizá con que le diga unas 30 o 40 combinaciones sea suficiente para que suponga por inferencia si saltaré o no para una nueva terna de valores dada. Mediante el uso de vectores y operaciones matriciales genera una nube de comportamiento con la que puede predecir las decisiones que tomaré. Así funciona el aprendizaje automático o machine learning.
Redes neuronales
Ocurre que ya no es necesario explicarle a la máquina las reglas de tal juego o la casuística de tal problema. Simplemente hay que lanzarla al agua e irle informando de cuando un movimiento le ayuda a flotar y cuando no. Así la máquina aprende a nadar por sí sola. Cuanta más información (dataset) le demos a la máquina sobre los movimientos que ayudan y los que no, es más probable que el patrón detectado sea el correcto y pueda ser utilizado a futuro. A este proceso se le llama «entrenar». En la era de la información estamos de suerte. Disponemos de información masiva (big data) para cientos de campos y materias. Los perceptrones no se limitan simplemente a tres variables, si no que pueden recibir muchas más. Además, la salida de un perceptrón puede conectarse a la entra de otro, formando sistemas conocidos como redes neuronales. La cantidad masiva de datos junto al músculo computacional de análisis de las redes neuronales hace que una máquina pueda detectar infinidad de patrones en función de los datos proporcionados. Patrones a priori inimaginables, ocultos a la vista humana y que son capaces de predecir el futuro con un alto grado de probabilidad. Aquí ya no hablamos de acierto o error, sino de probabilidad de acierto. Cuanto mayor sea esta, más fiable será el sistema.
Así funcionan las búsquedas de Google, el algoritmo de sugerencias de Spotify y las publicaciones que te muestra Instagram. Si te gusta tal y cual película, es probable que te guste esta otra también. Markov fue un matemático que entendió bien este comportamiento. La naturaleza parece estar hecha de probabilidades. Si tiro un dado y sale un seis, la probabilidad de que salga un seis en la siguiente tirada no varía. Un hecho fortuito no afecta al siguiente. En eso consiste el sentido aleatorio de la naturaleza. Pero si se introduce nueva información, todo cambia. Si ante mí tengo tres puertas y me decanto por una, tendré un 33% de posibilidades de abrir la correcta. Si me vuelven a poner de nuevo otras tres puertas, la probabilidad sigue siendo la misma. Pero si tras elegir una, me dan una información sobre las otras dos y me indican que una de las descartadas no es la correcta, todo cambia. Las probabilidades se redistribuyen. Lo más probable es que la puerta correcta sea la descartada. Esto quizá se entiende mejor con el clima o con el menú del día. Si hoy llueve, es más probable que mañana llueva a que no. Si hoy he comido lentejas, es más probable que mañana no las coma a que sí, salvo en mi caso, que soy un hambrón de las lentejas. Son estas cadenas de las que habló Markov, en las que cierta información, a corto plazo, modifica las probabilidades, aunque a medio plazo se sigan respetando las leyes de la probabilidad. Mi comida dentro de un mes será indiferente a lo que haya comido hoy.
Pero a veces estos sistemas no funcionan bien. Detectan patrones donde no los hay. Como aquella paloma que asoció erróneamente un par de vueltas que había dado sobre sí misma a la aparición de comida y cada vez que aparecía comida de nuevo, daba otras dos vueltas, cuando la aparición de comida o no solo dependía de la voluntad de su cuidador y del horario. O como aquellas personas que rezan cada vez que cometen un pecado y así evitan el infierno. El ejército americano entrenó un sistema para detectar la presencia de tanques en escenarios de guerra. Más allá de lo criticable en esta dedicación de esfuerzos, se dispuso un escenario ficticio donde se escondieron algunos tanques y se tomaron cientos de fotografías. Luego se tomaron la misma cantidad fotografías del mismo escenario, pero sin tanques. El sistema pronto adivinó un patrón con una probabilidad de acierto perfecta del 99%. Pero al sacarlo al mundo real, las predicciones hacían aguas. Tras un análisis exhaustivo se dieron cuenta de que el patrón detectado por el sistema solo tenía en cuenta la hora en la que se había tomado la foto. Si era en horario matutino (horario en la que se habían tomado el primer grupo de fotografías), había tanques; en horario vespertino, no. Así de sencillo. Las máquinas se complican solo lo justo.
Inteligencia artificial
La inteligencia generada en estos sistemas es lo que se conoce como inteligencia artificial. Pero ¿es realmente inteligencia? La intolerancia antropocéntrica nos plantea si en verdad las máquinas realmente saben lo que están haciendo. Acaso cuando enciendo la luz de casa al caer la noche, ¿entiendo lo que es la electricidad? El debate parece interesante, cuanto menos. Desde un determinado punto de vista, podemos identificar tres tipos de inteligencia. La exploratoria, que aparece al sobrepasar la frontera del conocimiento actual y descubrir nuevas propiedades o perfeccionar comportamientos. Nos imaginamos a un científico con bata en su laboratorio. Es la inteligencia que genera la investigación y la mayoría de los conocimientos prácticos. El segundo tipo es la inteligencia combinatoria. Se mezclan así dos tipos de conocimientos que a priori no tienen ninguna conexión, pero la combinación de ambos genera algo novedoso, sorprendente y útil. Quizá imaginemos aquí a un músico que fusiona el flamenco con el rock. Estos dos tipos de inteligencia, exploratoria y combinatoria, son los más comunes. Pero existe un tercer tipo, más revolucionario y excepcional: la inteligencia transformatoria. Esta se basa en una ruptura total con lo establecido, una nueva forma de pensar, una reordenación integral de los elementos al estilo de las estructuras disipativas de Prigogine. En el ser humano ocurre muy pocas veces, quizá más entre filósofos, a pesar de que en la naturaleza tenemos cientos de ejemplos. La primera persona que vio el agua no pudo imaginar que, bajo cierta presión específica, se formaría algo como el hielo.
La inteligencia artificial o IA puede que llegue a dominar los dos primeros tipos de inteligencia, la exploratoria y la combinatoria. ¿Pero podrá en algún momento a través de un aprendizaje profundo (deep learning) romper con los patrones establecidos y generar un conocimiento transformador? Quizá entonces la pregunta no será si la inteligencia artificial es o no inteligente, sino si podrá ser creativa. La creatividad como elemento catalizador de las artes y las ciencias.
Creatividad
Hasta hace muy poco pensábamos que la IA vendría a realizar y sustituirnos en los trabajos más tediosos y aburridos como conducir, limpiar la casa o trabajar en una oficina. Pero, contra todo pronóstico, la IA está invadiendo los terrenos del arte y de las humanidades. Las IAs ahora pintan, escriben, componen y filman. El ser humano se ha puesto a temblar. ¿Cómo una IA va a escribir el Quijote o a pintar un Picasso? El arte es algo propio, inherente y único de los humanos. Nos da la identidad. ¿Esto es así? Una IA puede pintar un Picasso porque anteriormente le hemos mostrado cuadros de Picasso. Puede estirar su inteligencia exploratoria y pintar algunos Picasso más atrevidos, pero siempre dentro de un patrón aprendido. Puede que incluso le pidamos que dibuje un cuadro impresionista como si lo hubiese pintado Picasso y puede que lo haga bien, que combine los dos estilos con acierto y ambos sean reconocibles en la pintura. Pero para ello le hemos tenido que mostrar un montón de cuadros impresionistas. Puede estirar la cuerda de la creatividad y generar obras de una belleza estética considerable, pero siempre ancladas al aprendizaje sometido. La hemos tenido que enseñar a saltar. ¿Podría crear en algún momento algo novedoso y transformador?
ChatGPT se ha convertido en el tutor académico, el terapeuta y el amigo de gran parte de la población. Es sensible, metódico y disciplinado. Pero a veces se inventa las cosas. Esto es así porque no responde en función de lo que sabe, sino que sigue un patrón de respuesta aprendido. Ese patrón está gobernado, como ya hemos visto, por la probabilidad. Siempre hay alguna ventana que se queda abierta y entonces el azar decide. La IA tira los dados y desplaza su torre cinco posiciones. La mayoría de las veces este desplazamiento carece de valor o en el caso de ChatGPT se marca una mentira. Pero algunas veces, posibles, aunque las menos, los dados traen viento de cara y sacan doble seis. La mentira se vuelve creativa. Surge así entonces la inteligencia exploratoria o combinatoria. Aparecen IAs que detectan enfermedades, predicen catástrofes y optimizan mercados mejor que cualquier ser humano. ¿Está siendo creativo ChatGPT cuando miente? ¿Es la creatividad una simple cuestión de azar?
Si cojo un trozo de papel y unas pinturas y me pongo al lío, no saldrá nada bonito. Lo sé. No se me da bien la pintura, es una pena. Podría intentar dibujar un paisaje o un retrato y aquello parecería hecho por un niño de 3 años. Por muchas veces que lo intentase, no saldría nada con valor estético de ahí. Con la práctica algo mejoraría, sin duda, pero soy consciente de que nunca expondré un museo. No es por falta de confianza, sé que soy válido en otras artes y habilidades, pero no en esta. Mi mente no solo pone en marcha el algoritmo de la creatividad, sino que también pone en juego otro tipo de algoritmo inhibidor o discriminador, para evitar que me presente en el Museo del Prado con mis pinturas bajo el brazo exigiendo una sala propia. Ocurre igual con la música, si alguien se pone a aporrear un piano, todo el mundo estará de acuerdo en que aquello que suena no será muy valioso. Con esta forma de pensar, nos hemos puesto a entrenar IAs discriminadoras que sean capaces de detectar qué es arte y qué no lo es. Una IA que tire a la basura el 99,999‰ de las mentiras que dice ChatGPT pero que sea capaz de detectar ese 0,001‰ que sorprendentemente sea novedoso y útil. Ese 0,001‰ de música que sale de un piano aporreado al azar pero que suena de forma celestial. Ese 0,001‰ de libros en las estanterías de la biblioteca de Borges que tienen un alto valor literario. Como si un algoritmo se pusiese a tirar los dados de forma frenética y otro solo estuviese atento para decirnos cuando la tirada es un doble seis. ¿Podríamos llamar arte a este tipo de creaciones artificiales? Pues no lo sé. Tiendo al pensamiento normativo y egocéntrico y me digo que no, que detrás de toda creación artística siempre es necesaria la presencia humana. Cómo podría una máquina, por muchos dados que tire, plasmar mi experiencia vital en un cuadro o en un poema. Los viajes que realicé, las personas que conocí, las alegrías y los disgustos que me llevé… Todo eso está seguro de algún modo filtrado en mis novelas. ¿Puede una máquina deducir un patrón de vida y de sentimientos y clonarlo? Escribí mi primera novela porque quería leerla. Escribí la segunda, porque quería que la leyesen. Este deseo de compartir, de comprender, de empatizar, de pertenecer, de comunicarse, de legar… ¿podrá en algún momento sentirlo una máquina? ¿Será en algún momento la máquina consciente de una actitud creativa? ¿Será la consciencia una cualidad solamente humana? ¿Soy yo consciente cuando salto desde una altura de 12 metros?