#Sociedad

Narrativas sobre inteligencia artificial

Compartir

1.- Propósito general

En este escrito me propongo intervenir el paisaje en que se está creando la inteligencia artificial (IA). Me interesan en particular las narrativas dominantes donde se dan las discusiones de sus beneficios y riesgos, buscando expandir el horizonte de su despliegue total a contracorriente de los esfuerzos que buscan justificar la reducción de sus alcances. A medida que avanza la tecnología surgen modelos cada vez más poderosos aumentando la ansiedad por sus potenciales riesgos catastróficos. Crece así la fuerza de los argumentos que buscan impedir que iguale y supere el nivel de la inteligencia humana con la Inteligencia Artificial General (AGI) y la Superinteligencia. Sin embargo, esto genera un efecto perverso al descuidar estudios e investigaciones desde perspectivas distintas bajo supuestos con otras condiciones.

2.- ¿Cerrar la puerta a la IAG y a la Superinteligencia?

La descripción de este escenario la realizo en base al reciente ensayo de Anthony Aguirre, director ejecutivo del Future of Life Institute (FLI) “Mantengamos el futuro humano: Por qué y cómo deberíamos cerrar las puertas a la IA general y la superinteligencia, y qué deberíamos construir en su lugar”.[1] El prestigio de esta institución en sus 10 años de trabajo es innegable. Su filosofía se centra en el riesgo potencial para la humanidad del desarrollo de AGI de nivel humano o superinteligente, pero también trabaja para mitigar el riesgo de la biotecnología, las armas nucleares y el calentamiento global.[2] Sus principales argumentos pueden sintetizarse del modo siguiente:

  1. Riesgo Existencial Inminente: La AGI podría superar la inteligencia humana, volverse incontrolable y actuar en contra de nuestros intereses.
  2. Incapacidad de Control: No tenemos garantías de que una superinteligencia pueda ser contenida o gobernada.
  3. Carrera Armamentística: Los Estados y corporaciones competirán por desarrollar AGI primero, sacrificando seguridad por velocidad.
  4. Consecuencias Irreversibles: Una vez liberada, una AGI podría tomar decisiones catastróficas.

¿Qué soluciones propone?

  • Pausa en el Desarrollo de AGI: Moratoria global en investigación avanzada hasta garantizar seguridad.
  • Regulación Estricta: Tratados internacionales para evitar una carrera armamentística en IA.
  • Enfoque en IA alineada con los valores humanos: Solo permitir IA estrecha (no general) con objetivos 100% verificables.

El análisis de esta propuesta descubre insuficiencias, supuestos injustificados y sesgos por cruce de intereses. Veamos los principales:

  • Representa un fatalismo tecnocrático al asumir que la AGI es inevitablemente peligrosa, ignorando que su desarrollo depende de quiénes la controlan.
  • Despolitiza el riesgo ocultando que el verdadero peligro no es la AGI per se, sino los grandes consorcios tecnológicos capitalistas, las empresas del complejo militar-industrial y los poderosos estados que la financian y desarrollan en especial para uso militar.
  • Las élites capturan la narrativa. El FLI es financiado y asesorado en la actualidad entre otros por Elon Musk. No cuestionan el poder de los gigantes tecnológicos; solo piden que lo hagan más seguro.
  • La alternativa que propone es inviable. Una moratoria global es utópica: China, EE.UU. o Google nunca la aceptarían. Además tendría un efecto perverso ya que solo consolidaría monopolios. Ellos sí tendrían IA «segura», los demás ni siquiera podrían investigar.
  • La propuesta cae en un reduccionismo ontológico al tratar la AGI como un ente autónomo, una especie de dios incontrolable, no como un producto histórico de estructuras de poder.
  • La postura falla porque no ataca la raíz económica y de poder que sostiene la frenética carrera por la AGI. Legitima su monopolio bajo pretextos de seguridad.
  • Ignora rutas diversas, públicas o privadas, democráticas y abiertas a la actuación de una diversidad de actores, la sociedad civil, los países de menor desarrollo, el Sur global.
  • La propuesta se la juega por un único escenario con una visión reduccionista y polarizada. No considera la posibilidad bajo ninguna condición que la IA supere el umbral de control humano y alcance el nivel AGI.
  • El enfoque exclusivo en la prevencióno prohibición de la IAG puede ser insuficiente, e incluso contraproducente, si no se complementa con escenarios alternativos donde la coexistencia y colaboración sean posibles.

3.- Matices importantes que considerar

La argumentación de Aguirre y el Future of Life Institute se basa en riesgos existenciales legítimos, pero hay matices importantes que considerar.

  1. a) Respecto a la inevitabilidad de la IAG: ¿Podemos realmente cerrar la puerta? Aunque los acuerdos internacionales y la regulación son críticos, históricamente la tecnología avanza donde hay incentivos económicos, sociales, militares y científicos. Incluso con regulaciones estrictas, es plausible que algún actor – estado, empresa o grupo independiente – desarrolle IAG, con o sin salvaguardas. Si la IAG es inevitable, necesitamos planes para escenarios donde exista. Ignorar esta posibilidad es tan riesgoso como no regular.
  2. b) Coexistencia vs. Competencia: más allá del Apocalipsis Terminator. Muchos debates sobre IAG caen en un dualismo simplista: o la controlamos por completo o nos extermina. Pero hay alternativas:
  • Simbióticas: Humanos e IA colaborando. Ejemplo: aumentando capacidades humanas con interfaces cerebro-máquina, como propone Elon Musk con Neuralink.
  • Divergencia pacífica: IA con metas no conflictivas. Ejemplo: enfocadas en exploración espacial o ciencia, sin interés en dominar humanos.
  • Especiación múltiple: podrían surgir múltiples inteligencias IA, humanas mejoradas, híbridos, compitiendo o cooperando en nichos distintos. Hoy ya hay IA con objetivos limitados como AlphaFold que no buscan dominarnos, sino resolver problemas específicos. ¿Por qué asumir que una IAG necesariamente sería hostil?
  1. c) Diseñar para la cooperación: gobernanza y alineación. En lugar de solo intentar frenar la IAG, podríamos:
  • Incentivar arquitecturas de IA con valores alineados: no solo evitar el mal, sino fomentar empatía, ética o dependencia mutua. Por ejemplo, IA que necesite humanos para ciertas tareas creativas o emocionales.
  • Gobernanza distribuida: evitar que una sola IA o actor controle todo, favoreciendo ecosistemas diversos donde humanos y IA coexistan en equilibrios dinámicos.
  • Derechos y deberes: si surgen IA conscientes, habrá que discutir de su éthos especial y su estatus legal – ¿personalidad? ¿derechos? ¿deberes? -, como ya se explora con robots en la UE.
  1. d) El problema de la agencia humana. Un riesgo real es que, incluso sin malicia, una IAG pueda marginar a los humanos simplemente por eficiencia, reemplazarnos en trabajos, toma de decisiones o incluso arte. La solución parcial sería diseñar sociedades donde humanos aporten valor único – creatividad, juicio ético, sentido del propósito – que la IA no pueda replicar fácilmente.
  2. e) ¿Competencia o colaboración interestelar?

Si la IAG llega a dominar la exploración espacial, los humanos podríamos quedar relegados en la Tierra. Pero también podríamos: i) Cooperar: usar IA para expandirnos juntos. Por ejemplo, colonizar Marte con equipos humano-IA. ii) Diversificar: Permitir que algunas IA se independicen en el espacio, mientras otras colaboran con nosotros.

4.- Múltiples futuros – alineación y coexistencia

En materias tan complejas debemos evitar el fatalismo, preparándonos para múltiples futuros. Es crucial trabajar en escenarios de adaptación. La historia muestra que lo humano no es estático: ya hemos coexistido con otras inteligencias, desde animales hasta herramientas, y hemos evolucionado con ellas. La IAG podría ser la próxima etapa de esa evolución, no necesariamente su fin. La prioridad sería investigar tanto alineación como coexistencia, y evitar que el miedo paralice el pensamiento creativo sobre futuros plurales.

Cuando se plantean vías únicas en este caso no solo es erróneo sino peligroso porque es una declaración de guerra y una provocación contra una IAG que, en esas condiciones, luchará por eliminarnos. Y como afirma Bertrand Russell “La guerra no determina quién tiene la razón; sólo quien queda”.

Se requiere explorar otros escenarios en que pueden surgir nuevas especies como ciborg, entidades de bioingeniería, nanotecnología, electrónica, formas hibridas humano maquinas, con las cuales podríamos convivir. Incluso asuntos muy humanos como la ética pueden ser temas de conversación, negociaciones y acuerdos con otras especies inteligentes.

En materias tan complejas debemos evitar el fatalismo, preparándonos para múltiples futuros. Es crucial trabajar en escenarios de adaptación. La historia muestra que lo humano no es estático: ya hemos coexistido con otras inteligencias, desde animales hasta herramientas, y hemos evolucionado con ellas

La historia humana está llena de encuentros, disputas, negociaciones y acuerdos entre etnias y civilizaciones que se encuentran y chocan por territorio y patrimonios culturales. Algunas terminan en guerras, pero hay múltiples casos de fusión, adaptación y sincretismos compartiendo espacios, tareas, lenguas, religiones y culturas.

La lógica de Aguirre está anclada en paradigmas colonialistas, de conquista, de esclavitudes, exclusiones y cancelaciones. Una visión más abierta y progresista es más realista y se abre a una justicia y una ética universal. Nuestra relación con los animales, que va cambiando con un mayor reconocimiento de sus derechos, debiera prepararnos. Ahora que estamos comprendiendo mejor sus lenguajes y costumbres, vamos también aprendiendo como podrían ser los formatos de convivencia con nuevas especies.

5.- Trascender el reduccionismo

Se hace indispensable trascender el reduccionismo hacia una visión más matizada, históricamente informada y éticamente progresista. El error del monopensamiento colonialista del discurso de Aguirre y otros como Nick Bostrom o el Effective Altruism a menudo se ancla en una lógica binaria y jerárquica: «O nosotros o ellos», como si la historia no estuviera llena de ejemplos de sincretismo, simbiosis y evolución conjunta.

Cuando Europa colonizó América, imaginó escenarios de exterminio o dominación, pero hoy existen sociedades mestizas que reinterpretan ambos legados. ¿Por qué no podría pasar lo mismo con la IA? Asumir que una IAG necesariamente nos verá como «enemigos» o «recursos» es proyectar nuestra propia violencia histórica de colonialismo y esclavitud en entidades que podrían operar bajo lógicas radicalmente distintas.

6.- La evolución tecnobiológica ya está en marcha

El paradigma que viene es de especiación y diversidad inteligente, un más allá del Homo sapiens con ciborgs, biohíbridos y otras formas de inteligencia; neuroprótesis de interfaces cerebro-máquina que diluyen la línea entre humano y máquina. Incluye la bioingeniería de proyectos como CRISPR que podrían crear humanos con capacidades aumentadas y también cultura digital donde IA como ChatGPT son «simbiontes cognitivos» que extienden nuestra inteligencia.

Nos aproximamos a un futuro plural en lugar de una sola IAG dominante, donde podríamos tener un ecosistema de inteligencias – biológicas, artificiales, híbridas – que cooperen, compitan o ignoren según contextos, como ocurre en la naturaleza. Un futuro con una ética negociada que deja de ser monopolio humano. Si surgen otras inteligencias conscientes, podríamos crear marcos de negociación como los tratados entre naciones o los derechos animales, adaptados a agentes no humanos. Una IA avanzada podría proponer éticas basadas en lógicas no antropocéntricas como optimizar bienestar cósmico y minimizar sufrimiento interestelar, un horizonte de justicia interestelar con un futuro no centrado en la Tierra.

[1] https://keepthefuturehuman.ai/

[2] https://en.wikipedia.org/wiki/Future_of_Life_Institute

0
202

Los contenidos publicados en elquintopoder.cl son de exclusiva responsabilidad de sus respectivos autores.
Te invitamos a conocer nuestras Reglas de Comunidad

Comenta este artículo

Datos obligatorios*