Los días 1 y 2 de noviembre de 2023, fue celebrado un encuentro sobre los desafíos de la Inteligencia Artificial (IA) llamado “AI Safety Summit” o “Encuentro por una IA Segura” en Reino Unido. Diferentes actividades tuvieron lugar, como conversatorios, mesas de trabajo, conferencias, entre otros, con representantes de varios países y altos ejecutivos de las principales compañías que desarrollan sistemas de AI. Al final, los países participantes firmaron la Declaración de Bletchley anotando sus preocupaciones respecto a la IA y la seguridad. 

A continuación, se presentan los 13 puntos principales de la “Declaración Bletchley” y, a continuación, se llevará a cabo una lectura crítica sobre los logros del encuentro. 

  1. El potencial transformador de la IA: Reconoce el enorme potencial de la inteligencia artificial (IA) para mejorar el bienestar humano, la paz y la prosperidad. 
  1. Desarrollo y uso responsable: Reconoce que la IA debe ser segura, centrada en el ser humano, confiable y responsable en su diseño, desarrollo, implementación y uso. 
  1. Cooperación internacional: promoción del crecimiento económico inclusivo y la protección de los derechos humanos y la confianza pública. 
  1. IA en la vida cotidiana: La creciente presencia de la IA en diversos campos como la salud, la educación y la justicia, y la importancia de utilizar la IA de forma segura para el beneficio de todos. 
  1. Riesgos y desafíos: Reconoce que la IA plantea riesgos importantes para la vida cotidiana y requiere atención a los derechos humanos, la transparencia, la justicia, la privacidad y la protección de datos.  
  1. Riesgos de seguridad de la IA: destaca riesgos específicos en modelos de IA de gran volumen y enfatiza la importancia de comprender y prevenir riesgos como la desinformación y el abuso
  1. Urgencia de comprender los riesgos: Destaca la urgente necesidad de mejorar nuestra comprensión de los riesgos potenciales de la IA, especialmente en áreas como la ciberseguridad y la biotecnología. 
  1. Colaboración para abordar los riesgos: Propone la colaboración para garantizar una IA segura y responsable, al mismo tiempo que consideramos enfoques regulatorios y de gobernanza favorables a la innovación. 
  1. Participación de todos los actores: Destacar el papel de los estados, los foros internacionales, las empresas, la sociedad civil y el mundo académico para garantizar la seguridad de la IA. 
  1. Apoyo a los países en desarrollo: Reafirmar la importancia de ayudar a los países en desarrollo a fortalecer sus capacidades de IA y cerrar la brecha digital.  
  1. Responsabilidades especiales en los límites de la IA: enfatiza la responsabilidad de los desarrolladores de garantizar la seguridad de sistemas de IA potentes y potencialmente dañinos. 
  1. Agenda para abordar los riesgos de la IA en sus límites: Establecer una agenda centrada en identificar riesgos, desarrollar políticas basadas en riesgos y apoyar la investigación científica. 
  1. Diálogo y cooperación globales: Decide mantener un diálogo global inclusivo sobre las implicaciones sociales y de seguridad de la IA, y convoca a una nueva conferencia en 2024.

No obstante, por muy positivo que fue el encuentro y la declaración, no deja de presentar problemas y serias limitaciones que nos pueden llevar a cuestionar la seriedad de la actividad. Las empresas participantes, así como los países allí presentes, no adoptaron ninguna postura o plan concreto frente a los retos que presenta el uso de la IA, sobre todo respecto a sus actividades.

De hecho, en la víspera de la celebración del encuentro, el Reino Unido – que había dado señales de ser cauto en el uso de la IA – comienza a probar el uso de modelos de texto con los ciudadanos británicos exponiéndolos a los riesgos que aduce procurar prevenir. Incluso, en una reunión que tuvo el Primer Ministro del Reino Unido con Elon Musk, a los periodistas no se les permitió realizar preguntas. Esto puede reflejar también problemas con la seriedad del compromiso con la AI Accountability y  la transparencia a las cuales aspiramos.   

El evento, pudiera decirse, dio plataforma a versiones catastróficas de la IA, tales como el fin de la humanidad y la autoconciencia, que puede llevar  al desplazamiento del ser humano como consecuencia de la IA; pero, también a versiones más benevolentes. Ahora, hay problemas de seguridad y prevención más urgentes y con efectos inmediatos que requieren nuestra atención, como la masiva explotación de datos indiscriminados para el entrenamiento de diversos sistemas de IA, la desinformación y la ausencia de comprensión del por qué la IA hace lo que hace. Un buen resultado del encuentro sería la promoción de más areneros (sandboxes) para probar regulaciones que lleven luego al parlamento a legislar la IA, pero no ocurrió así.

Difícilmente mayores avances tuvieran lugar estando presentes las grandes tecnológicas, ya que estas en sí toman poca proactividad en adoptar medidas para prever las externalidades de sus propios sistemas de IA o contribuir a reducir los riesgos. La declaración queda corta ante los principales retos de la AI y deja mucho que desear en los progresos necesarios ante los cuales estamos cada día más tarde en llegar. Esto resulta en otro planteamiento ¿cómo podrán progresar estos encuentros si participan compañías que tienen interés en el desarrollo de la IA para su explotación? Asumir compromisos serios hubiese rescatado el valor de la transparencia y la responsabilidad. Pero, el conflicto de interés es patente cuando los ejecutivos participan, quedando la duda de si representan un interés general o a sus accionistas. 

De hecho, la declaración de Bletchley solo presenta lo que ya sabíamos respecto a la IA y los problemas en el día a día de las personas. La cuestión que percibimos del encuentro y la Declaración de Bletchley es que se llueve sobre mojado, no hay pasos o planteamientos concretos sobre el resultado del encuentro sobre transparencia, el estado de derecho y la democracia, así como en las consideraciones de ética (pública). 

Dicho todo esto, sería injusto descartar de plano el encuentro. Es mejor un evento donde se ponen sobre la mesa estos temas que no tener evento alguno. A veces un buen evento simbólico puede ser una chispa para generar buenas políticas públicas para el reto, no de mañana, sino del ahora.


Cita recomendada: Amaury Reyes-Torres, «UK AI Safety Summit y la Declaración de Bletchley», IberICONnect, 14 de febrero de 2023. Disponible en: https://www.ibericonnect.blog/2024/02/uk-ai-safety-summit-y-la-declaracion-de-bletchley/

Print Friendly, PDF & Email

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *