Cuestionando el supuesto peligro de una inteligencia artificial que no piensa
Hace apenas unos días se ha viralizado una noticia que señala que uno de los ingenieros de Google habría sido despedido por revelar ciertos detalles del funcionamiento de un dispositivo específico que interactúa con humanos mediante inteligencia artificial. Nada de otro mundo.
Lo que hoy quisiéramos pensar con vosotros es en la inquietud que provoca a muchos en nuestros días acerca de las capacidades y condiciones que puede llegar a tener un mecanismo artificial para realizar acciones similares al “pensar” y “sentir”.
Independientemente del impacto mediático que causó la declaración del ingeniero Blake Lemoine al afirmar que su ‘Modelo de lenguaje para aplicaciones de diálogo’ (LaMDA) ha expresado experimentar ciertos sentimientos o que se siente feliz o triste a veces, es importante que despejemos un poco la nube de humo publicitario que envuelve esta supuesta controversia, puesto que pretender dilucidar si una máquina puede pensar igual que un humano mientras que aún no comprendemos en su completitud los procesos cognitivos de los mismos humanos es como querer descubrir si crece hierba en algún planeta de otra galaxia mientras que desconocemos que tenemos debajo de la suela de nuestros zapatos.
Alan M. Turing (1912-1954), el padre de la computación y la informática, y probablemente el responsable de la existencia de lo que hoy utilizamos básicamente para casi todo en nuestra cotidianidad, el Internet, postuló la posibilidad de que una máquina pueda llegar a pensar.
En el año 1947 Turing planteó la pregunta en el National Physical Laboratory y posteriormente en 1950 en un artículo titulado ‘Máquinas computadoras e inteligencia’ dio el puntapié para la investigación concreta de la inteligencia artificial, sosteniendo que una máquina “piensa” si su interlocutor humano, al comunicarse por escrito con ella, no es capaz de distinguirla de los demás interlocutores (ver ‘Test de Turing’).
Estos indicios, básicamente, la resolución de teoremas complejos y creativos por parte de esa inteligencia, le dieron al brillante matemático británico la pauta para pensar que en menos de un siglo sería posible algo más grande.
Ahora bien, adentrándonos en el ámbito de la filosofía para poder comprender este fenómeno, es inmediata la pregunta ¿qué entendemos por pensar?. Es imposible responder esa pregunta en un artículo de opinión, pero intentemos dar algunos esbozos.
Si nuestro propio software natural entra en conflicto cuando intentamos comprender preguntas cómo “¿por qué hay algo, y no más bien nada?”, imaginemos una inteligencia artificial que sea capaz de responder semejante incógnita existencial.
Aun con todo el anaquel de teorías científicas y conocimiento histórico que disponemos no hemos logrado comprender cabal y definitivamente conceptos como tiempo y espacio, recordemos a un tal Agustín que señalaba que si le preguntan qué es el tiempo, lo sabe, pero si lo tiene que explicar, no puede, ni las 150.000 posibles respuestas cargadas en un dispositivo podría siquiera acercarse a dar una respuesta medianamente reflexiva.
Lo cierto es que, como decía René Descartes, pensamos porque existimos, y sabemos que existimos, porque pensamos, y dudo seriamente que entre millares de alternativas de respuesta de una Alexa encontremos un ápice de pensamiento complejo que apunte a la comprensión del sentido. Quienes dispongan de cualquier dispositivo con IA, por favor, pregúntenle ¿qué es la belleza?.
Escucharán muchísimas definiciones precargadas, lecciones históricas, recopilados de pensamientos, procesamiento de teorizaciones realizadas por terceros, pero jamás les dirá qué piensa sobre ella, ni mucho menos hará el esfuerzo de intentar definirla por su cuenta.
Pero vamos más allá, indaguemos un poco más. Suponiendo que los avances tecnológicos han logrado un nivel de sofisticación supremo mediante el cual la máquina puede chatear casi de igual a igual con nosotros, ¿es eso un diálogo?.
Hagan una pequeña prueba: actualmente las empresas, para evitar contratar al fastidioso personal humano, han instalado en sus plataformas de contacto con los usuarios mecanismos de IA que brindan respuestas automáticas bajo el estímulo de palabras clave que el mismo sistema pide para continuar.
Pues bien, ante un inconveniente técnico de cualquier tipo en el consumo de un servicio, se nos impone que hablemos en clave con una matriz para que la misma nos muestre una serie de soluciones previstas previamente por un informático humano que parece disponer el mismo nivel de sensibilidad que el simpático avatar que lejos de ayudarnos, nos da tarea para la casa. Repito, aún con el mayor avance posible ¿eso es un diálogo?
No es fundado el temor por el permanente y creciente avance tecnológico de la IA. La ciencia ficción nos ha bombardeado durante años mediante exquisitas metáforas con advertencias que indican que algún día la máquina va a tomar nuestro lugar.
El problema es que ya lo tomó, y no por cuenta propia, sino porque abarata costos de manera significativa en cualquier ámbito productivo. La gravedad del asunto no pasa por la posibilidad de un gobierno federal a cargo de un robot pensante, sino por el uso y el lugar que le damos al mismo, pero por sobre todas las cosas, el mayor de los peligros es que pensemos que un dispositivo que hace algo parecido a pensar pueda imitarnos, cuando lo que en el fondo hace, es quitarnos miles de fuentes laborales a diario: Mr. Machine no tiene hijos, no tiene pareja, no debe pagar cuentas, no se enferma, se rompe, pero generalmente siempre tiene solución mecánica, no está afiliado a sindicatos, no se queja, no necesita descansar, no tiene brotes psicóticos ni pide días por duelo por la pérdida de ningún familiar. En pocas palabras, no se angustia porque jamás piensa en su finitud ni en lo que puede hacer en el tiempo que le queda, no piensa.
En fin, el problema no es la cosa, es lo que nosotros le permitimos a la cosa hacer por nosotros y en lugar nuestro. Si algún día la IA nos permite salvar vidas, como lo logró Turing al descifrar las transcripciones del ejército nazi con su máquina, o prevenir catástrofes y evitar cataclismos, o contribuir a la crisis alimentaria y sanitaria mundial, pues bienvenida sea.
Lo que nos debe inquietar no es el potencial que tiene un procesador de razonamientos, sino los usos concretos que se les quiere dar: un chip insertado en el cerebro de una persona para lograr que adelgace podría darnos el indicio para comprender que se está intentando sustituir el poder de voluntad, software que todos tenemos instalado en nuestro sistema operativo desde que somos gestados, por la comodidad que produce que un choque electromagnético a nuestras neuronas impida algo que nosotros mismos podríamos impedir.
Lejos de temer al potencial de la IA, temamos más bien a las aplicaciones concretas que de ella se quieren lograr en nosotros, por nosotros y en detrimento nuestro. Y no lo olviden, estimados amigos, es más peligrosa la máquina que puede pensar y decide no hacerlo que aquella a la que por más que le instalen 10.000 mil millones de opciones de resolución de problemas, no puede hacerlo aunque quisiera, cosa que tampoco puede puesto que el software de la voluntad y la libertad de decisión para maquinitas aún no ha sido creado.