Apuntaba el escritor Juan Manuel de Prada que el concepto de inteligencia artificial (en adelante IA) es un horrible oxímoron. Acaso porque la inteligencia es probablemente lo más inherente a la naturaleza humana. El ser humano es el que puede leer dentro de sí (intus legere) y conferir esa propiedad a las máquinas es quizás excesivamente pretencioso. Arrancar este artículo con una bajada de humos de la IA podría predisponer al lector a pensar que estoy en contra del progreso o soy reacio a los avances tecnológicos, pero voy a intentar mostrarle que no es así.
Los medios de comunicación cada vez vierten más en titulares que elogian la irrupción en nuestro quehacer del manejo de grandes bases de datos (el llamado Big Data). Cuantos más datos se tengan en juego a la hora de tomar decisiones, mejores serán las decisiones que tomemos. Esta última frase, como muchos de los eslóganes que se lucen en los medios de comunicación, es un ejemplo de cómo anular la capacidad crítica de las personas y hacer que el vulgo trague sin aplicar criterio. La herramienta no sustituye al maestro. La herramienta puede perfeccionar la acción del maestro si la acción requiere de determinada herramienta. Un coche nos permite movernos más deprisa que corriendo con nuestras piernas. Pero un coche no es más inteligente que un ser humano, (bueno, que la mayoría de los seres humanos).
Pasamos enseguida de las grandes bases de datos al procesamiento de esa gran cantidad de datos. Y ahí es donde irrumpe el término de IA. Los ordenadores pueden almacenar millones de imágenes o situaciones, por encima de la capacidad de hacerlo de nuestra memoria. Una vez que se pueden barajar los millones de combinaciones posibles, una máquina puede trabajar según los algoritmos facilitados para derrotar al ajedrez a cualquier ser humano. De manera que ya desde el primer movimiento, la máquina ya ha jugado y visto todos los escenarios posibles. Esto se puede trasladar igualmente a la robótica y diseñar androides imbatibles al ping-pong o infatigables a la siega, o certeros, precisos y fríos a la hora de colar cien balas por el mismo agujero a 100 metros. Sin duda son herramientas poderosas y precisas. Y como todas las herramientas, pueden tener un uso correcto o incorrecto, aunque de eso no entienden las máquinas.
Pero los defensores de la IA más genuina son los que alegan que esas máquinas aprenden y se realimentan con lo que van aprendiendo. Por ejemplo, si a una máquina que juega al ajedrez le pones una fila de escaques más y el tablero en lugar de 8×8 tiene 9×9, la IA es incapaz de solventar ese imprevisto, algo que no resulta complicado para cualquier ajedrecista: el ser humano ha captado rápidamente que le han cambiado las condiciones del juego y enseguida se adapta al nuevo escenario frente a una máquina “desconcertada”. Pero la IA parece que se muestra capaz de “aprender” en pocas partidas que el escenario ha cambiado y adapta su estrategia a la nueva situación, de manera que en poco tiempo está en condiciones de ganar la partida a cualquier ser humano.
Los procesos de alimentación de estos sistemas se hacen de acuerdo con algoritmos, una palabra que ya ha salido y en la que conviene detenerse. Según la RAE, algoritmo se define como conjunto ordenado y finito de operaciones que permite hallar la solución de un problema y eso señala a que hay alguien que determina esas operaciones y las hace finitas: establece qué hay que hacer y hasta dónde para obtener lo que se interpreta como solución del problema. O sea, que hay alguien que decide qué algoritmos son esos. Por establecer un ejemplo sencillo, si a un vehículo se le plantea como problema trasladar a una persona de un punto a otro lo más rápido posible estableciendo eso como objetivo fundamental, puede hacerlo a toda velocidad sin respetar las señales de tráfico. Pero entonces añadimos: “no, pero respetando las leyes de tráfico (esto ya de suyo es complejo porque la mayoría de los que conducimos no aprobaríamos el examen teórico de conducir)”. De este modo, implementamos el método de transporte para que se ajuste al código de circulación. Pero tampoco dice nada si en el camino debe evitar atropellar a quien cruce la calle de forma indebida. Bueno, pues se añade. Sí, pero hoy no tiene en cuenta de que la carretera está nevada o que hay un corte de vías por una manifestación. Bueno, pues como las máquinas pueden con todo, lo implementamos. Pero igual al pasajero durante el viaje le entra un apretón y hay que hacer una parada de urgencia, cosa que el algoritmo no contemplaba. Aun así el viajero llega a su destino y en el vehículo queda un olor desagradable que la máquina no percibe (o acaso sí porque se ha implementado) pero el siguiente viajero va a notar que algo pasó en el último viaje.
No es un problema que surja la IA en la vida social sino en cómo se nos presenta. Todo lo que puede ser un avance tecnológico puede tener mercado o ser una fuente de poder y por ello interesa su promoción social, su desarrollo. Lo que no tenga carácter comercial ¿ qué viabilidad tiene? Nadie promociona ni vende lo que no tiene un rédito. Para vender algo, hay que mostrar su bondad, su utilidad, su conveniencia de tenerlo, de usarlo: usted no será nada o estará en desventaja respecto a los demás si no lo tiene. Incluso se puede dar un paso más según la ventana de Overton diciendo que estará usted haciendo mal las cosas si no aplica tal o cual sistema de detección o diagnóstico, que privarse o no querer utilizar lo que hasta ese momento era una herramienta equivale a hacer una tarea de baja calidad, poco rentable o productiva e incluso negligente. Poner pegas a las nuevas tecnologías es señalado como inmovilismo y conducta irracional, porque si la tecnología nos trae algo bueno ¿por qué no aceptarlo? ¿Por qué poner reparos a utilizar una herramienta que nos facilita la tarea? Es como aferrarse a hacha para talar árboles cuando existen motosierras. El punto delicado de la negociación con las nuevas tecnologías es cuando irrumpe la obligación. Efectivamente, en la ventana de Overton tras las fases de presentación, ayuda, utilidad, recomendación, y “casi como que mejor sí”, llega a la obligación: es una herramienta de la que no se puede prescindir sin incurren en delito. Después de haber endiosado el veredicto de la IA no queda más remedio que el acatamiento: ya no hay lugar para disentir, para poder decir “pues yo pienso que…”, pues toda la sociedad se echa encima del pretencioso que se arroga saber más que la IA, porque los protocolos que establecen están basado en lo mejor para la mayoría, y pretender llevarles la contraria se presenta como terrorismo social.
Lo que es necesario en este momento es convencer a los seres humanos de que la IA no debe atrofiar la inteligencia natural y que cuando los protocolos esclavicen nuestro libre albedrío hay que tener presente que esos algoritmos están hechos por gente con intereses de dominio sobre el conjunto de la sociedad. Las máquinas no entienden de los asuntos humanos más que lo que le hayan introducido entre sus datos. Resulta divertido, no sé si lo habréis hecho pero seguro que tendréis ocasión de hacerlo, interaccionar con una IA y dialogar con ella sobre asuntos espirituales, humanos intrínsecamente. Yo lo he hecho en varias ocasiones y se desconciertan, divagan, dan contestaciones que son evasivas. Una IA puede determinar que no es adecuado pedir una prueba diagnóstica como una TAC a un octogenario porque no es rentable económicamente (y es probable que sea así) pero no es capaz de entender que se la vas a pedir porque es tu padre. El conflicto puede estar cuando en situaciones de este tipo la recomendación sea una exigencia “por el bien común” y un imperativo legal que será sancionado si se transgrede.
Mientras tú mandes sobre las herramientas que utilizas y las puedas emplear según tu criterio serás autoridad, pero cuando tu modo de trabajar te lo imponga el sistema, la herramienta serás tú.
Autor
- Luis Miguel Benito de Benito, médico especialista de Aparato Digestivo desde 2000 y Doctor en Biología Celular. Licenciado en Filosofía. Máster en Dirección Médica y Gestión Clínica por el Instituto de Salud Carlos III y Experto Universitario en Derecho Sanitario y Ciencias Forenses por la UNED. Facultativo Especialista de Área del Hospital Universitario de El Escorial y Director Médico de la Clínica Dr. Benito de Benito desde 2011. Autor del libro "Coronavirus. Tras la vacuna" ISBN 978-84-9946-745-0
Últimas entradas
- Actualidad10/12/2024La Inteligencia Artificial en la Sanidad y la Medicina. Por Doctor Luis M. Benito de Benito
- Actualidad17/11/2024El desgraciado. Por Doctor Luis M. de Benito
- Actualidad19/07/2024Desinformación al margen de la deontología médica. Por Doctor Luis M. Benito de Benito
- Actualidad09/06/2024Al rescate de lo bueno. Por Doctor Luis M. de Benito
Excelente, me ha gustado mucho . Y , además , da mucho miedo, porque los algoritmos siempre irán contra nosotros y dirán que es por el bien común. No me gusta el futuro. Me refugio en el pasado aunque fuese más tonto. A este paso tendremos que huir de tanta modernez y evadirnos en el espacio y en el tiempo, como hacían aquellos poetas llamados modernistas.