
Gatocobetetorpedo
En la ciencia ficción popular siempre ha sucedido este tópico al presentar una tecnología novedosa de gran peligro para la humanidad: nace de la mente de un científico que resulta ser un sádico perturbado o extorsionado para desarrollar la malignidad que causará grandes desgracias. Tal vez a base de engaños aparentando un beneficio incuestionable de primeras.
La realidad no deja de contradecir esas elucubraciones y nunca es el loco del laboratorio quien decide en exclusiva a partir del odio desquiciado de una vida de obsesiones y aislamiento. Más bien se trata de un consejo de administración corporativo que dirime y da el visto bueno -sin el menor respaldo parlamentario, social o sanitario- al disparate global que van a emprender y afectará a millones de vidas pero con una rentabilidad potencial que casi no pueden imaginar.
En la presente ocasión son miles de millones de vidas. Y esas decisiones acabarán por encauzar la humanidad hacia derroteros concretos, pero imprevisibles.
Los insensatos que han desarrollado estos proyectos iban improvisando a la vez que publicaban sus logros sin filtro, con el fin de captar capital de inversores de riesgo y entidades corporativas mastodónticas. Mientras tanto, el hatajo de oportunistas que supuestamente representan los intereses de los ciudadanos o no tenían el conocimiento para percatarse de la gravedad circundante o no estaban al tanto, sólo al dinero tonto que les cae por calentar la poltrona mientras, con pose egipcia, reciben sobornos de los lobbies implicados.
Por su parte, la sociedad permanecía en completa inopia porque todo se ha presentado gradualmente como si fuera un juego inofensivo y la única voz que ha escuchado fue de la parte convenida, con seducciones y coquetería.
Seamos claros: la irrupción de la IA -o mejor dicho, el cúmulo de algoritmos que deciden- ha llegado al mundo sin filtro ni cuidado, sin miramiento o análisis. Se trata de la ejercitación del más puro neocapitalismo sumado a la ley del embudo. Y parte del inevitable chorro de preguntas que esta situación exige es:
– ¿Qué intelectuales de múltiples áreas del conocimiento han valorado y considerado las repercusiones negativas a largo plazo de una implementación descuidada de esos algoritmos?
– ¿Cuándo se ha propuesto a filósofos y otros representantes de la sociedad en el campo de la razón y el pensamiento el análisis de lo que estaba por suceder y su impacto en diferentes franjas de tiempo?
– ¿Dónde están los análisis éticos o morales realizados antes de su llegada al gran público en previsión de los riesgos y contingencias?
– ¿Qué comité de ciencias sociales y de la salud ha valorado la forma en que toman decisiones los algoritmos en cuanto a prejuicios y valores? ¿Y quién ha enseñado a los algoritmos cómo y qué incluir o descartar respecto a lo que puede ser pernicioso a nivel social?
– ¿Por qué han entrenado los algoritmos con material digital del que no tienen derecho de uso o explotación? Aquí aparece el robo de contenido original por parte de las empresas desarrolladoras para entrenar sus modelos y que, para esta situación específica, el control de derechos de autor y copyright no parecía tener importancia.
– ¿Por qué se ha permitido el uso a gran escala en beneficio de multinacionales sin reconocimiento o retribución alguna?
– ¿Cuándo se va a analizar y exponer el indeleble impacto social del uso de fotografías personales para generar imágenes en contextos indeseables con el fin de acosar, extorsionar, difundir falsificaciones y bulos y, en general, provocar manipulación social en forma de propaganda, desinformación, condicionamiento o control social?
– ¿Cuándo se va a informar al usuario final -y más aún, a todos los ciudadanos de cada país- del coste económico y el impacto medioambiental en producir cada contestación, imagen y audio?
– ¿O en realidad todas estas han sido decisiones tomadas en prerrogativa por directivos que priman el grado de aceptación y éxito entre los betatesters (probadores de ensayos) que conforman el gran público al que se ha sometido a estos experimentos sociales a base de embelecos?
Como resultado, en todas las áreas donde se están implementando los algoritmos generativos de medias verdades -la llamada IA- se producen extensos períodos de prueba e incertidumbre porque, simplemente, se experimenta a la vez que se implementa; o como se dice en el ámbito de la computación: en tiempo real.
Todas las aplicaciones informáticas (diagnósticos médicos, conducción autónoma de vehículos, predicción de reincidencia criminal, generación de código para lenguajes de programación, decisiones crediticias bancarias, valoración del grado de cobertura para asegurados, generación de imágenes, asistencias de soporte a clientes o usuarios, asistencias a la selección de personal en recursos humanos, optimización de la potencia de cálculo de videojuegos mediante atajos en la fidelidad visual…) fluctúan entre lo regular, lo inservible y lo peligroso. Y operan con las personas haciendo estas de cobayas, de modo que las empresas desarrolladoras -o encargadas de su implementación- se ahorran el tiempo de diagnóstico, prueba y búsqueda de problemas imprevistos -junto a tantos otros aspectos de valoración precisa- que sería necesario por lo común.
Es evidente que sale muy barato disponer a capricho de empleados que no están en nómina cuando los Estados miran para otro lado y la legislación es inexistente o precaria y atrasada.
Ninguna ciudadanía ha tenido voz ni voto respecto a lo que ha sobrevenido a la velocidad del rayo en estos últimos años. No ocurrió un debate porque no hubo conocimiento. Y ya es muy tarde.
A partir de ahora el control de los humanos no se hará por humanos. Ahí te quedas, 1984. La distopía está servida.
Fuente: https://concienciapoliticamente.wordpress.com/2025/08/30/ia-el-debate-que-nunca-ocurrira/