Plataformas, IA y Redes 

Sergio Hinojosa

Sergio Hinojosa analiza el dominio de las grandes corporaciones tecnológicas sobre la infraestructura digital y la inteligencia artificial. Critica la fragilidad de la regulación estatal frente al poder privado, alertando sobre los riesgos éticos, la manipulación y la centralización del control en la era digital.

Infraestructura

El funcionamiento de las redes sociales requiere de plataformas tecnológicas y éstas necesitan una infraestructura que son los servidores. Las grandes plataformas, sobre todo las de sistema centralizado como X o Meta, poseen sus propios servidores. Pero la emergencia de la IA y Big Data está cambiando el panorama funcional y normativo.

Los servidores son la columna vertebral de las plataformas digitales, proporcionan el soporte físico necesario para la gestión del flujo de datos, de operaciones entre usuarios y las aplicaciones o redes que utilizan las grandes plataformas como Meta Platform (Facebook, Instagram y WhatsApp). Estos servidores están gestionados por empresas privadas, en este caso, por Meta Platforms, una multinacional con sede en California. Su fundador Mark Zuckerberg convirtió Facebook en Meta, conservando la red, pero introduciendo el metaverso, un concepto que incluye experiencias inmersivas basadas en la realidad aumentada (AR) y la realidad virtual (VR). La plataforma Meta incluye actualmente Facebook, Instagram, WhatsApp, Messenger y Oculus (dispositivos de realidad virtual). Actualmente pretende montar un centro de datos en Luisiana por valor de 9500 Millones de dólares. Como se ve, Meta invierte en infraestructura propia para garantizar un mayor control sobre sus operaciones y optimizar costos a largo plazo. También invierte en metaverso, pero sobre todo en IA y en dispositivos de hardware para experiencias inmersivas. Un horizonte interesante, pero con alto riesgo de manipulación y alienación.

La infraestructura de plataformas y redes, los grandes servidores, son computadoras especializadas de alto rendimiento diseñadas para procesar, almacenar y distribuir datos a través de las redes. Suelen funcionar de manera ininterrumpida en el interior de centros físicos de datos. Constan de procesadores; (bien CPU, o GPU, si se requiere más potencia, para gráficos, IA etc.) memoria para operar (RAM), unidades de almacenamiento (HDD, y RAID para redundancia y velocidad), conexión rápida, normalmente de fibra óptica y sistemas operativos para el manejo de red y administración de recursos (Linux, Window Server).

En Europa existen grandes servidores en Irlanda (dado los bajos costes de refrigeración y beneficios fiscales), en Francia, en París hay centros clave con presencia de gigantes como OVH cloud (empresa líder en la nube) y AWS (Amazon Web Service). Alemania, concretamente en Frankfurt, dispone de un hub (DE CIX), es decir, de un nodo fundamental y de los más importantes del mundo para la conectividad de redes. Quizá porque, pese a no ser puntera en tecnologías de la comunicación, es el país que mayor garantías ofrece a la protección de datos, por lo que atrae a muchas empresas interesadas en cumplir con el Reglamento General de Protección de Datos(RGPD) para prestigiar su marca. En Amsterdam existe otro importante hub, y también se hallan afincadas muchas empresas de almacenamiento de datos y plataformas globales. En los países nórdicos, por su clima, se han instalado grandes centros de servidores de Facebook en Suecia, y de Google en Finlandia.

En España Google, Microsoft y AWS (Amazon Web Services) siguen invirtiendo dada la posición geográfica estratégica y el crecimiento digital de nuestro país. El principal hub en España está en Madrid, que alberga grandes centros de datos operados por Equinix, Interxion y AWS. En Barcelona también existen grandes centros gestionados por empresas como NTT Global Data Center y Edge ConneX. Actualmente se intenta que sea esta ciudad un nodo clave para la conexión de Europa con África y América Latina.

El Datacenter de Euskaltel sirve a la región del País Vasco y conecta con redes europeas. Y en el sur, Málaga se posiciona ventajosamente como hub tecnológico, aunque Valencia y Sevilla siguen siendo localizaciones importantes.

Por otra parte, Europa está impulsando proyectos como Gaia-X, que busca construir una infraestructura de nube europea soberana y segura. Lo que supondría un enorme e independiente almacén de recursos y datos en Internet para todo el territorio. Esto en el contexto de desarrollo de la IA es especialmente importante.

Plataformas y redes sociales

Y si los servidores son  la infraestructura de las plataformas, éstas son condición necesaria para las redes sociales. En realidad son infraestructuras tecnológicas que facilitan la interacción entre usuarios y/o aplicaciones a través de internet. Proporcionan así un espacio de intercambio de información, bienes, servicios o los tres tipos básicos de experiencia inmersiva existentes: la Realidad virtual (RV), la Realidad aumentada (RA) y la  Realidad mixta (RM).

Las plataformas actúan como intermediarios conectando personas, empresas y máquinas, y están diseñadas para facilitar transacciones, colaboración o acceso a contenidos. Sus componentes esenciales son: la interfaz de usuario, es decir, la capa visible desde la que opera el usuario, la base de datos y almacenamiento, el motor de procesamiento que gestiona las funciones principales, y el ecosistema de participantes; usuarios, creadores de contenidos, desarrolladores y anunciantes.

Existen plataformas de diversos tipos: redes sociales, e-comercio, streamings (proveen acceso a multimedia, como Netflix o Spotify), educativas (ofrecen recursos para el aprendizaje, como Coursera, Khan Academy etc.) y de colaboración y trabajo, que fomentan la interacción laboral (Slack, Zoom, etc.). Naturalmente, en gran medida, la carrera se desarrolla a partir de optimizar IA y su filtrado de Big Data para garantizar su escalabilidad, su potencia y funcionamiento. De modo que IA y Big Data se han convertido en inseparables e imprescindibles para el desarrollo económico interno a Internet. Como se ve hay una interdependencia entre servidores, plataformas y redes, y un interés global por procesadores más veloces y por la potencia que las transforma: la inteligencia artificial (IA).

Normalización, estandarización, ética y redes sociales

Aunque en determinados casos, los gobiernos puedan requerir el acceso a datos o pedir la colaboración para cumplir con regulaciones locales y las grandes empresas puedan adoptar normas internacionales de buenas prácticas si se ven requeridas por usuarios o gobiernos, sin embargo, los Estados no han ganado la batalla, y los grandes servidores y las grandes plataformas están en manos privadas e invierten ingentes cantidades en IA, tratando de franquear las fronteras más elementales en los compartimentos estancos de los Big Data. Esto significa, por ejemplo, hacerse con datos personales de sanidad, educación, comercio, etc, para profundizar la oferta y gama de mercancías y servicios, pero también significa vulnerar la ley que nos protege del derecho a la intimidad, y nos defiende de movimientos invasivos de diversa índole en la Red.

Es cierto que la UE promueve la inclusión de normas éticas en el funcionamiento de las grandes plataformas que actúan en territorio europeo, pero se llevan a cabo si benefician económicamente o si el prestigiar la marca les merece la pena. De todos modos, como se está viendo con el acceso de Trump y su corte tecnoligarca al poder, las normas legales encuentran escollos y las voluntarias se adoptan si interesan.

Estas normas, desde la emergencia significativa de la IA y el manejo de Big Data, se incluyen en el Código de Prácticas sobre Desinformación (2018, actualizado en 2022, de compromiso voluntario). Uno de sus objetivos es el uso de la IA para la detección de patrones de desinformación, verificar contenidos en colaboración con verificadores de hechos y proveer información contextual a noticias dudosas.

La IA Act, es decir, la ley sobre inteligencia artificial, es un reglamento propuesto por la Unión Europea para clasificar la IA por niveles de riesgo, sobre todo aquellos que afectan la información pública, como los relacionados con algoritmos de redes sociales (ignoro qué tipo de participación tiene en esta gestión normativa la prensa legal y verdadera). De este modo se pretende regular aquellos algoritmos que afectan a los derechos fundamentales e inciden en la manipulación de la opinión y del conocimiento. Esta ley, que entró en vigor en Europa el 1 de agosto de 2024, es el primer marco jurídico integral del mundo que regula la inteligencia artificial. Sin embargo, la presión legal se ve confrontada a la propiedad privada de las grandes plataformas que siguen imponiendo, por su influencia económica, sus “libertades”. Algunas normas de esta ley no serán efectivas hasta agosto de 2025. Y pese a que permite multas de hasta 35 millones de euros, la realidad es que aún no ha habido sanciones.

Las plataformas no se entienden ya sin IA y Big Data, por lo que no sólo la legislación, sino las normas técnicas de uso y de estandarización se han debido adecuar a estas tecnologías emergentes. Y hay aspectos de la estandarización que no son sólo técnicas, sino que afectan directamente a los derechos y libertades de los usuarios. Por esta razón, además de la legislación europea sobre plataformas, se ha creado un comité (CTN 71) encargado de normalizar, estandarizar y establecer directrices sobre el buen uso en Europa de la IA.

En 2019 se constituyó, en España, el Subcomité CTN 71/SC 42 sobre IA y Big Data en el marco de la Asociación Española de Normalización. El subcomité forma parte del trabajo que realiza la ISO/IEC JTC 1/SC 42, para garantizar la compatibilidad en la aplicación de estas tecnologías con normativas internacionales, y en concreto, abordando temas relativos a la ética y la gobernanza. Sus actividades incluyen la elaboración de normativas sobre modelos de datos, gobernanza, ética y gestión de riesgos en sistemas de inteligencia artificial. Se trata de garantizar un uso transparente, inclusivo y éticamente responsable de estas tecnologías. Al menos esa es la intención confesada.

Asunto importante es que la composición del subcomité incluye a la administración pública, si bien, el peso privado es mayor. Así se reúnen empresas privadas, universidades, asociaciones y centros de investigación para, junto a los expertos de este comité, llevar a cabo  proyectos de estándares que, al mismo tiempo, se desarrollan en el comité internacional ISO/IEC JTC 1/SC 42 Artificial intelligence y en el comité europeo CEN/CLC/JTC 21 Artificial Intelligence. Tras el lenguaje gris y la apariencia técnica, estos estándares adquieren una importancia fundamental con vistas al futuro uso regulatorio.

Actualmente, el subcomité CTN 71/SC 42, junto a sus homólogos internacionales, trabaja en nuevas normas que, aunque técnicas, tienen consecuencias prácticas y entran en el terreno de la ética no sólo individual sino política. Y son tan importantes como:

  • ISO/IEC TR 24027:2021 que trata de corregir el sesgo en los sistemas de Tecnología de la Información (TI), IA y toma de decisiones asistida por inteligencia artificial.
  • ISO/IEC TR 5469: 2023  centrada en la seguridad funcional de los sistemas de IA cómo garantizar que los sistemas de IA puedan operar de manera segura en “aplicaciones críticas”, (en vehículos autónomos, dispositivos médicos, infraestructura industrial, aeronáutica, etc.) donde un fallo podría tener consecuencias graves para la vida, la propiedad o el medio ambiente. Trata también de garantizar que las decisiones tomadas por la IA sean comprensibles y predecibles.
  • La serie ISO/IEC 5259 trata de establecer estándares y directrices para garantizar la calidad de los datos utilizados en procesos de “análisis de datos” y “aprendizaje automático” (ML). Establece métricas y características que los datos deben cumplir para ser de calidad, proporciona pautas para recolectar, procesar y mantener los datos en óptimas condiciones. Introduce métodos para evaluarlos y validar su calidad, fomenta la documentación clara y completa de su procedencia y sus características en pro de la transparencia. Y trata de identificar y mitigar los sesgos que podrían afectar al análisis o al aprendizaje automático (ML). Naturalmente no es lo mismo hacer hincapié en que la calidad de los datos sea referida sólo a la industria, que hacerlo extensiva a aquellos datos que afectan a la industria dedicada a la información pública y a los servicios básicos. 
  • La ISO/IEC 42001 esta norma proporciona un marco para la gestión, el desarrollo, la implementación y el mantenimiento de los sistemas de IA, asegurando un uso seguro, responsable y ético en las organizaciones. De especial relevancia son los aspectos relativos al cumplimiento (en el uso de la IA) de la legalidad y de la “conformidad ética”.

En este sentido se trata de garantizar, mediante normativa voluntaria, la no discriminación, la minimización de sesgos o la no vulneración de derechos, sea por introducción de sesgos, falta de transparencia, o no rendición de cuentas y falta de claridad. En definitiva, la norma (voluntaria) proporciona un marco para el uso de la IA dentro de las organizaciones (desde la startup hasta las grandes empresas o instituciones gubernamentales) compatible con los derechos fundamentales.

  • ISO/IEC 23894 sobre gestión de riesgos en la tecnología de la IA (sesgos de datos, falta de transparencia, errores en los resultados, impactos éticos, introduciendo procedimientos para evaluar el impacto de estos riesgos en las personas, organizaciones y en la sociedad. En el marco de las decisiones proporciona a las organizaciones directrices para tomar decisiones informadas sobre la adopción de la IA. Introduce estrategias para prevenir o mitigar los riesgos detectados en los sistemas de IA, abordando el ciclo completo de la vida del sistema de IA, y establece la necesidad de documentar los procesos de gestión de riesgos, promoviendo la transparencia y la rendición de cuentas. 

Todas estas normas técnicas pueden usarse en un sentido u otro, según la eficacia de los controles que se establezcan, dado que dichas normas son voluntarias y hay mayor peso privado en su confección. Y las que son obligatorias, como la Ley de Servicios Digitales, actualmente corren un alto riesgo ante la política de Trump.

Uno de los desafíos a los que se enfrenta Europa es la potencia incontrolable de la RED. Por ejemplo, mediante el diseño de negocios en red. Lo ilustra la pretensión de Elon Musk de preparar su plataforma X (posee  X Corp,Tesla, SpaceX con Starlink, que está jugando un papel fundamental en la guerra de Ucrania y Neuralink) para el aumento de la base de usuarios y nuevas fuentes de ingresos mediante servicios integrados y modelos de suscripción como Twitter Blue, similar al modelo de WeChat en China[1]. Es decir, su pretensión de centralizar servicios e integrar datos provenientes de servicios sociales, sanitarios, escolares, financieros y comerciales en un solo lugar. Europa establece normas estrictas para combatir la desinformación (al menos teóricamente) y prohíbe tal fusión y cruce de datos, incluso ha impuesto algunas sanciones por estos motivos a Meta/Facebook en Irlanda por cruce de datos y no procesar datos personales conforme a la ley, a H&M en Alemania por cruce de datos y prácticas de monitorización o a Clearview en varios países por recopilar y cruzar datos biométricos sin consentimiento, pero podemos imaginar el peligro para los ciudadanos si la red X desde su trono en la Casa Blancalogra sortear la Digital Services Act que rige en Europa. A veces, la sustancia se oculta en los rincones más recónditos y oscuros de la superficie de la información y de la literatura gris.


[1] En China, la Ley de Protección de la Información Personal (PIPL) limita teóricamente el uso y cruce de datos personales para fines no autorizados, especialmente aquellos sensibles como los de salud y educación, pero la acumulación de datos en una sola base no deja de tener sus riesgos.

Comparte

Deja un comentario