Profundizando en la cuestión de la legislación y regulación para la democracia, Simons nos remite al caso de Frances Haugen, una ex gerente de productos de Facebook, que testificó ante el Senado de los Estados Unidos el 5 de octubre de 2021. Argumentó que, para regular a Facebook y Google (hagámoslo extensible a las nuevas plataformas basadas en OpenAI y similares), «se necesita un organismo de supervisión dedicado, porque en este momento las únicas personas en el mundo que están capacitadas… para entender lo que está sucediendo dentro de Facebook son personas que crecieron dentro de Facebook». Este organismo de supervisión sería un nuevo «hogar regulatorio» con el conocimiento y la autoridad para crear estructuras de supervisión de empresas tecnológicas como Facebook y Google. Para diseñar y establecer este organismo, debemos «romper con los marcos regulatorios anteriores… las protecciones de privacidad o los cambios en la Sección 230 por sí solos no serán suficientes… porque no llegarán al meollo del asunto, que es que nadie realmente entiende… las decisiones tomadas por Facebook«.
El libro se ha centrado en un tipo de decisión tomada por organizaciones como Facebook: decisiones sobre el diseño e integración de sistemas de aprendizaje automático. Cuando organizaciones como agencias de bienestar infantil o departamentos de policía toman decisiones sobre el diseño y uso de estos sistemas, ejercen un tipo distintivo de poder: el poder de predecir.
Haugen fue una de las primeras informantes en reconocer la importancia del carácter político de este poder para regular a Facebook y Google. Una y otra vez argumentó que las decisiones más importantes que toman Facebook y Google son decisiones cargadas de valores sobre el diseño de sistemas de aprendizaje automático que funcionan como parte de la infraestructura de la esfera pública, como el feed de noticias de Facebook o la búsqueda de Google. Gobernar estas decisiones requerirá ir más allá de los marcos regulatorios existentes.
¿Cómo debería Facebook diseñar un sistema de noticias para permitir que los ciudadanos diversos se encuentren en condiciones de respeto e igualdad y lleguen a conocerse realmente? ¿Cómo debería Google diseñar un sistema de búsqueda para respaldar la formación de conocimiento compartido y una arquitectura de información cívica resiliente? ¿Cómo deberían las democracias asegurarse de que Facebook y Google construyan sistemas que respalden las condiciones sociales e informativas del autogobierno colectivo?
Estas preguntas nos recuerdan que la conexión entre valores políticos y decisiones en el aprendizaje automático es fundamental para regular a Facebook y Google. Los desacuerdos sobre valores políticos y cómo incorporarlos en los sistemas de aprendizaje automático son inevitables y deseables. Siempre habrá controversias sobre qué principios deberían guiar el diseño de nuestra esfera pública y cómo se expresan esos principios en el diseño de los sistemas de aprendizaje automático. Lo importante es que regulamos a Facebook y Google para institucionalizar el proceso de hacer y responder las preguntas correctas, aquellas que nos obligan a articular cómo se concibe, qué aspecto presenta, una esfera pública saludable y un ecosistema de información y a justificar cómo diseñamos los sistemas de aprendizaje automático a la luz de esa visión. Lo que necesitamos es un régimen de gobernanza que invite a la experimentación y reflexión intencionales y mantenga viva la posibilidad de cambio y revisión en el diseño de los sistemas de aprendizaje automático que funcionan como infraestructura digital para respaldar las condiciones sociales e informativas del autogobierno colectivo.
Este enfoque requiere, como se ha señalado anteriormente, dos cambios cruciales en cómo pensamos en la regulación de Facebook y Google. El primero es pasar del enfoque en explicaciones técnicas al enfoque en justificaciones institucionales. Necesitamos estructuras de responsabilidad que exijan a Facebook y Google justificar cómo los sistemas que construyen promueven objetivos compartidos, como los principios de anticorrupción, diversidad y experiencia compartida. Esas justificaciones no requieren explicaciones técnicas de la lógica interna de los modelos de aprendizaje automático, como sugieren muchas propuestas regulatorias centradas en la privacidad, sino justificaciones fundamentadas que revelen los valores políticos incorporados en las elecciones técnicas. El segundo es pasar de una toma de decisiones tecnocrática a una participativa. Necesitamos involucrar a actores de la sociedad civil y organismos públicos con conocimientos y experiencia relevantes en juicios continuos sobre cómo promover objetivos compartidos en el diseño de los sistemas de aprendizaje automático de Facebook y Google.
El autor insiste en la necesidad de la creación de un nuevo organismo regulador de plataformas, la Agencia de Plataformas de IA (APA), para desarrollar mecanismos de gobernanza participativa empoderada. La regulación de Facebook y Google es una oportunidad para la innovación regulatoria. Al combinar reformas estructurales a la gobernanza corporativa y al estado administrativo con el escrutinio a través de la toma de decisiones participativa, el enfoque no solo regularía a Facebook y Google, sino que también introduciría un cambio muy necesario en cómo abordamos la regulación en sí misma, abandonando la búsqueda de soluciones estables y tecnocráticas, y abrazando el experimentalismo institucional como parte del proyecto urgente de reforma democrática.