Inteligencia artificial o la imposibilidad de la ética (1)

Por Álvaro San Román Gómez

Contra la Inteligencia Artificial,
el único deseo, es dejar de desearla;
el único uso, convertirla en inútil;
la única necesidad, hacerla innecesaria.

[Nota de En Rojo: Dividimos la publicación de «Inteligencia artificial o la imposibilidad de la ética» de Álvaro San Román Gómez en cinco entregas.. En la primera, el autor hace una reflexión general sobre el lugar de la IA en la cultura contemporánea y explica este proyecto de investigación particular. Las restantes son una autoreflexión de la IA y la ética que lleva a cabo chat GPT a partir de las premisas del autor.]

En enero de 2025 inicié una interacción con ChatGPT a propósito de su existencia [1]. En dicha interacción, a modo de diálogo socrático, traté de deslindar, con la ayuda de su potencia en gestión de datos, el estatuto ontológico de la IA dentro del ámbito de la ética, una reflexión que tiene la virtud de ampliar no sólo el alcance del debate sobre la eticidad de la IA, sino también sobre su definición como herramienta.

En efecto, preocupado por la relación sistémica entre el desarrollo e implementación de la IA y la explotación de entornos naturales y vidas humanas, invoqué la interlocución de la entidad protagonista de mis inquietudes para explorar con ella la realidad de dicha relación, así como sus implicaciones a nivel teórico y práctico. No deseo desvelar en esta pequeña introducción demasiadas conclusiones, únicamente me limitaré a subrayar que, en la historia de la tecnología, nunca ha existido la posibilidad de hablar de un martillo ético, de un botijo ético, de una azada ética; es decir, nunca ha habido cuestión ética en la técnica, porque el alcance de esas herramientas era supervivencial. Botijo, azada o martillo poseían una clara dimensión continuista con los cuerpos a los que servían, con mundo al que pertenecían. Botijo, azada o martillo, no articulaban una cosmovisión, sino que, más bien al revés, eran el resultado de una cosmovisión articulada, entraban en una cadena de medios y fines delimitada ya de antemano por una ética. Una herramienta susceptible de poseer una dimensión ética es una herramienta con la capacidad de alcanzar una alteración fundamental, de influir sustancialmente en la cosmovisión de la cultura en la que emerge, es decir, no es una herramienta, sino la postulación de una cosmovisión, la delimitación de una zona de valor, la implantación de una axiología… La IA es una herramienta únicamente dentro del sistema tecnologicista Occidental que la alumbra, pero es más que una herramienta porque da la razón de ser de ese sistema; es precisamente su hipostasis.

Por usar un término cargado, diré que la IA es una hierofanía [2] del sistema Tecnoccidental [3] en el mismo sentido en que una pequeña figura votiva de Shiva puede serlo respecto a la sacralidad en la religión hindú. Una hierofanía es, secularmente hablando, la irrupción material, la manifestación física y la ejecución fáctica de poder de una realidad trascendente, inmaterial y poderosa. Una figura del dios Shiva es más que un objeto decorativo o representativo, es sagrada porque, para el hindú, el propio dios Shiva, su santidad, está de hecho presente en la figura: estar ante la figura del dios es estar ante el dios mismo. Del mismo modo, la IA no es únicamente aquello que podemos hacer con ella, sino aquello que hace el sistema Tecnoccidental con nosotros y con la naturaleza en todas sus manifestaciones; la Inteligencia Artificial es el sistema Tecnoccidental en acto. Y si ese sistema necesita sistemáticamente de una constante dominación y explotación antropoecológica para sostener su centralidad cósmica, es decir, si delimita un mundo cuyos cimientos son propiamente inmorales desde una perspectiva ecológica, entonces una IA ética nunca dejará de ser un simple y peligroso oxímoron ontológico. En dos líneas: la IA, si es una simple herramienta, no alcanza la dimensión ética y su discusión no ha lugar; y si puede ser susceptible de valoración ética, entonces es claramente desde una perspectiva antropoecológica, una realidad no ética, la concreción fáctica de un proyecto de mundo en el que la tecnología, no el ser humano, no la naturaleza, es el centro del mundo.

El resultado de aquella interacción con ChatGPT, en la que se discutía en estos términos, fue de casi cuarenta páginas, muchas de ellas plagadas de redundancias, pero tremendamente reveladoras. Con el fin de llevar el ejercicio hasta sus últimas consecuencias formales filosóficas, solicité a ChatGPT que, a partir de esas páginas, elaborará un texto ensayístico escrito en primera persona para ser incluido en un libro.

Las páginas que siguen son el resultado de esa elaboración. Aunque hubiera sido deseable realizar alguna corrección, matizar conceptos y ampliar debates, –acerca de porqué es más preciso hablar de “dominación” cuando se habla de “eficacia” o de la diferencia entre “técnica y tecnología”…; por afán de “originalidad”, si es que podemos enarbolar en los dominios de la IA un concepto como este, he decidido mantener el resultado “puro”, si es que podemos enarbolar en los dominios de la IA la idea de pureza.

Un último apunte. Por mi parte tiendo a pensar que la validez de las respuestas de ChatGPT, en una interacción como la que mantuve, es la validez que queramos darle a toda la información que procesa, es decir, si entendemos que sus bases de datos son las adecuadas, o por lo menos, legítimas, entonces podemos considerar a ChatGPT un «interlocutor válido”, ya que representaría todo el conocimiento que nuestra propia cultura ha acumulado: sería algo así como una conciencia colectiva con la que interactuar. Y más allá del contenido, por el lado de la forma, ChatGPT funciona de manera puramente lógica, es decir, valida en la conversación todo aquello que siga un proceso lógico, esto es, que cumplan las formas de la lógica formal. Si tenemos en cuenta ambas cosas, la IA puede ser el interlocutor perfecto para hablar sobre la propia IA y contra la propia IA.

Notas

[1] Parte de aquella interacción puede leerse en el artículo “¿Por qué? Inteligencia artificial y ética”, Viento Sur, 12/02/2025: https://vientosur.info/por-que-inteligencia-artificial-y-etica/
[2] Mircea Eliade, Lo sagrado y lo profano, Ediciones Paidós Ibérica S.A., España 1998. Etimológicamente: palabra compuesta por los vocablos griegos hieros (sagrado) y phanein (manifestación).
[3] Álvaro San Román Gómez, “From the Anthropocene to the Techno-Westernocene, en: Matthew Robson (eds.) The Anthropocene, Ontopolitics, and International Relations, Capitulo 6, Springer, 2025.

Tomado de Viento Sur.

Artículo anteriorPuerto Rico en el Foro Mundial Antibullying: Entre el Altruismo Científico y las Restricciones Políticas
Artículo siguienteEncontrado en las Redes- La cobertura de la violencia desnuda