En relación a los retos y oportunidades que la inteligencia artificial plantea a las democracias, recientemente, Josh Simons ha publicado el libro Algoritmos para el pueblo: Democracia en la era de la IA, Princeton Univertsity Press (2023).
En la presente entrada me propongo hacer un resumen de las principales ideas extraídas del volumen sobre las relaciones de la IA, los algoritmos, el machine learning y el big data (mencionarlos por separado, seguramente, es redundante) con la democracia.

CONTENIDOS

Simons analiza el papel de la predicción en la era de la inteligencia artificial (IA) y su impacto en las democracias. El autor argumenta que la predicción se basa principalmente en el pasado en lugar de orientarse hacia el futuro. A través de ejemplos, como la predicción de abuso infantil o la selección de contenido en plataformas como Facebook y Google, se muestra cómo la predicción perpetúa las desigualdades existentes y refuerza los patrones establecidos. El autor destaca que la predicción tiende a atraparnos en el pasado en lugar de proporcionar un conocimiento real del futuro.

Como la predicción solo puede basarse en el pasado los modelos de aprendizaje automático necesitan datos que reflejen un mundo pasado similar al futuro para ser útiles. Sin embargo, si el futuro difiere radicalmente del pasado, la predicción se convierte en una guía deficiente para el futuro. Además, se señala que asumir que el futuro se parecerá al pasado en la toma de decisiones no es neutral, ya que implica ciertos juicios morales y políticos. La elección de basar decisiones en predicciones no neutrales estructura nuestras decisiones de manera que proyecta el pasado hacia el futuro, y cuantas más decisiones basemos en la predicción, más se moldeará nuestro mundo en función de esa elección.

Inteligencia artificial: poder de predicción y libertad

Como la predicción solo puede basarse en el pasado los modelos de aprendizaje automático necesitan datos que reflejen un mundo pasado similar al futuro para ser útiles. Sin embargo, si el futuro difiere radicalmente del pasado, la predicción se convierte en una guía deficiente para el futuro. Además, se señala que asumir que el futuro se parecerá al pasado en la toma de decisiones no es neutral, ya que implica ciertos juicios morales y políticos. La elección de basar decisiones en predicciones no neutrales estructura nuestras decisiones de manera que proyecta el pasado hacia el futuro, y cuantas más decisiones basemos en la predicción, más se moldeará nuestro mundo en función de esa elección.

Existe un contraste entre la predicción y la libertad, tanto a nivel individual como colectivo. La libertad humana implica la posibilidad de romper con el pasado y tomar decisiones que no estén determinadas por él. Kant argumentaba que la libertad humana es una postura moral que afirmamos al actuar como seres humanos. A nivel colectivo, la democracia se basa en la libertad colectiva de elegir las reglas por las que vivimos, y también depende de la posibilidad de romper radicalmente con el pasado. Mientras que la predicción se enfoca en la exactitud, la democracia se basa en las elecciones colectivas que legitiman las decisiones tomadas por el pueblo.

Simons critica firmemente las propuestas que buscan utilizar la predicción para automatizar la democracia, argumentando que estas propuestas malinterpretan el significado de la democracia. En lugar de ser simplemente un mecanismo para la agregación de preferencias, la democracia es una forma de agencia colectiva y una expresión de libertad. La autoridad de un gobierno o una constitución proviene de ser elegidos por el pueblo, no necesariamente por ser la mejor opción o producir los mejores resultados.

La predicción se basa en el pasado
Aunque la predicción aparentemente se orienta hacia el futuro, en realidad está arraigada en los patrones pasados. Los modelos de aprendizaje automático aprenden de datos históricos para realizar predicciones, lo que puede perpetuar desigualdades y mantener estructuras de poder existentes.

La predicción no puede automatizar la democracia
Las propuestas que buscan utilizar la predicción para automatizar la democracia subestiman el significado y la importancia de la libertad y la toma de decisiones colectivas. La democracia se basa en la libertad de elección y no puede ser reducida a un mero cálculo de preferencias individuales.

La predicción puede atraparnos en el pasado
Al depender demasiado de la predicción para tomar decisiones, corremos el riesgo de reproducir el pasado y limitar nuestra capacidad de romper con él. Si el futuro difiere significativamente del pasado, la predicción se vuelve ineficaz como guía para el futuro.

La libertad implica romper con el pasado
Tanto a nivel individual como colectivo, la libertad humana depende de la capacidad de tomar decisiones que no estén determinadas por el pasado. La posibilidad de romper con el pasado es lo que nos permite ejercer nuestra libertad y actuar como seres humanos autónomos.

La democracia es una forma de agencia colectiva
La democracia no se trata solo de la agregación de preferencias individuales, sino de la capacidad colectiva de elegir las reglas por las que vivimos. La legitimidad de las decisiones democráticas radica en el hecho de que son tomadas por el pueblo, independientemente de si son las mejores opciones en términos objetivos.

Inteligencia artificial e igualdad

Como hemos visto, Simons subraya el carácter político de los sistemas de aprendizaje automático y su impacto en las democracias. Examina cómo el uso de predicciones en agencias de bienestar infantil, bancos y fuerzas del orden puede perpetuar las desigualdades sociales codificadas en los datos, obstaculizando la igualdad política. Propone que la igualdad política guíe la toma de decisiones, respaldada por reguladores y no solo por tribunales. Además, sugiere la creación de una Ley de Igualdad de IA para considerar continuamente cómo aplicar la igualdad política en diferentes instituciones.

También analiza cómo los modelos de aprendizaje automático de Facebook y Google, circunstancias extensibles a otras plataformas, influyen en la distribución de información e ideas, afectando la capacidad de los ciudadanos para ejercer su libertad colectiva de debate. Argumenta que la regulación debería incluir mecanismos de gobernanza participativa para diseñar y evaluar estos sistemas, fomentando la experimentación colectiva y apoyando una esfera pública saludable.

Los debates sobre equidad, no discriminación y regulación de plataformas como Facebook y Google están intrínsecamente ligados a la democracia. En lugar de buscar soluciones tecnocráticas estables, se deben establecer estructuras institucionales que permitan cuestionar continuamente cómo alcanzar los ideales democráticos y que posibiliten cambiar las respuestas. Destaca que la regulación debe ser un proceso de experimentación colectiva y aprendizaje, no solo buscar soluciones óptimas, y requiere reformar el estado administrativo para incluir preguntas políticas en su estructura.

El uso de sistemas de aprendizaje automático puede perpetuar desigualdades sociales y obstaculizar la igualdad política.

 

La igualdad política debería guiar la toma de decisiones y ser respaldada por reguladores, no solo por tribunales.

 

Se propone la creación de una Ley de Igualdad de IA para considerar la aplicación de la igualdad política en diferentes instituciones.

 

El uso de predicciones en la distribución de información e ideas puede limitar la capacidad de los ciudadanos para debatir libremente.

Se sugiere la creación de una Agencia de Plataformas de IA para incluir la gobernanza participativa en el diseño y evaluación de sistemas de aprendizaje automático de Facebook y Google.

 

Los debates sobre equidad, no discriminación y regulación de plataformas están relacionados con problemas fundamentales de la democracia.

 

La regulación debe ser un proceso continuo de experimentación y aprendizaje, no solo buscar soluciones óptimas.

 

Se requiere reformar el estado administrativo para incluir preguntas políticas en su estructura y enfoque de políticas.

Tres principios para guiar el diseño de los sistemas algorítmicos

Simons enfatiza en todo momento la importancia de regular a Facebook y Google, así como a otras plataformas similares, a través de un enfoque centrado en el perfeccionamiento de la democracia. Las decisiones sobre el diseño y la integración de sistemas de aprendizaje automático realizadas por estas empresas tienen un carácter político y afectan la esfera pública y el ecosistema de información. Se propone la creación de un organismo de supervisión dedicado con conocimiento y autoridad para regular estas tecnológicas. Además, se enfatiza la necesidad de principios como la lucha contra la corrupción, la diversidad y la experiencia compartida como criterios para evaluar los sistemas de Facebook y Google.

Los sistemas de aprendizaje automático (machine learning) que forman parte de la infraestructura de la esfera pública digital deben ser diseñados para apoyar las condiciones sociales e informativas del autogobierno colectivo.

Se proponen tres principios para guiar el diseño de los sistemas de clasificación y perfilado de Facebook y Google: anticorrupción, diversidad y experiencia compartida.

 

El principio de anticorrupción busca que estos sistemas prioricen el interés público sobre los ingresos publicitarios, mientras que el principio de diversidad busca promover una diversidad de voces y valores en la esfera pública alentando encuentros serendípicos entre los ciudadanos. Por último, el principio de experiencia compartida se refiere a la creación de una arquitectura de información cívica que fomente la participación ciudadana.


El principio de diversidad requeriría que las instituciones que operan como cuellos de botella de información trabajen para asegurar que los ciudadanos estén expuestos a opiniones y formas de pensamiento diferentes a las suyas. El principio de diversidad está íntimamente ligado a la serendipia, el encuentro fortuito con personas o ideas que no esperábamos encontrar en un foro en el que confiamos. Nos anima a pensar en la creación de espacios en los que los ciudadanos se reúnan sin saber exactamente qué esperar. Esto es todo lo contrario de lo que sucede en el newsfeed de Facebook y en la búsqueda de Google, que, debido a que son sistemas de clasificación, hacen que las personas sean más propensas a interactuar con el contenido o los sitios web que se predice que les interesará.

 

En lugar de influir en el comportamiento que afirman predecir, los sistemas de clasificación requeridos por el principio de diversidad tendrían que promover activamente fuentes diversas de ideas e información. Para aplicar este principio, Facebook y Google tendrían que rediseñar la esfera pública digital. Facebook podría introducir un botón de serendipia: «Imagina si pudieras cambiar un interruptor en Facebook y convertir todos los puntos de vista conservadores que ves en puntos de vista liberales, o viceversa. Te darías cuenta de que tus noticias podrían no parecerse en nada a las de tu vecino». O mejor aún, Facebook y Google podrían cambiar los propios sistemas de clasificación. Imagina si construyeran sistemas de clasificación que predijeran no el contenido que la gente quiere ver, sino el contenido que no quieren ver, lo que no tienden a hacer clic, me gusta o compartir. Facebook y Google podrían utilizar esos sistemas para mostrar ocasionalmente a los usuarios contenido con el que no se predice que interactuarán. Podrían presentar este contenido de manera atractiva y notificar a los usuarios que, aunque es posible que no estén de acuerdo, aún podrían encontrarlo interesante, sugiriendo «Prueba esto» o «Aquí tienes una visión diferente» o «¿Has pensado en esto?» o «Esto es lo que piensan otros». Un botón de serendipia incorporaría diversidad y casualidad en la infraestructura de la esfera pública digital, contrarrestando el poder predictivo al imitar las interacciones inesperadas en las calles, en los bares o al leer el periódico.

La doctrina de la imparcialidad

Podríamos inspirarnos también en la doctrina de imparcialidad, una obligación regulatoria aplicada con anterioridad a la radiodifusión. La doctrina de imparcialidad requería que los radiodifusores «dedicaran una porción razonable del tiempo de transmisión a la discusión y consideración de temas controvertidos de importancia pública» y estipulaba además que «al hacerlo, [se esforzaran] por ser imparciales, es decir… esforzarse activamente por poner… instalaciones a disposición de la expresión de puntos de vista contrastantes sostenidos por elementos responsables con respecto a los temas controvertidos presentados».

 

La doctrina de imparcialidad aplicada a la esfera pública digital implicaría que las plataformas como Facebook y Google se comprometan a dedicar una parte significativa de su espacio y tiempo de transmisión a la discusión de temas controvertidos de importancia pública. Esto no significa simplemente proporcionar un equilibrio de tiempo o espacio entre diferentes perspectivas, sino también esforzarse activamente por presentar y promover puntos de vista contrastantes respaldados por fuentes responsables.

En lugar de depender únicamente de algoritmos y clasificaciones automatizadas, las plataformas podrían establecer equipos editoriales que seleccionen y destaquen contenido que presente diferentes puntos de vista sobre temas importantes. Estos equipos editoriales estarían compuestos por personas con diversidad de experiencias y perspectivas, y su objetivo sería garantizar que la esfera pública digital sea un espacio en el que se fomenten el debate, la deliberación y la exposición a diferentes ideas.

 

Además, para aplicar el principio de imparcialidad, las plataformas también deberían comprometerse a divulgar de manera transparente cómo se toman las decisiones sobre la presentación y promoción de contenido. Deberían brindar información clara sobre los criterios utilizados para seleccionar y clasificar el contenido, y permitir a los usuarios comprender cómo se les muestra información en función de sus preferencias y comportamientos anteriores.

 

La implementación de estos principios requeriría un cambio significativo en la forma en que operan las plataformas digitales. No sería una tarea fácil, pero es esencial para promover una esfera pública digital más diversa, inclusiva y que fomente la deliberación democrática. Alentando la exposición a diferentes perspectivas y garantizando la consideración de puntos de vista contrastantes, podemos contrarrestar la polarización y el sesgo informativo, y promover una ciudadanía informada y comprometida.

 

Es importante destacar que estos principios no implican la censura de opiniones o la imposición de una agenda específica. Más bien, se trata de garantizar que haya un espacio equitativo y diverso para la expresión y el debate de ideas, donde los ciudadanos tengan acceso a una amplia gama de perspectivas y puedan formar sus propias opiniones de manera informada.

Firewalls estructurales

Se sugiere establecer «firewalls estructurales» entre los sistemas de publicidad y los sistemas de clasificación para proteger el interés público y alinear los incentivos de Facebook y Google con dicho interés. Además, se plantea la necesidad de introducir la serendipia y la diversidad en los sistemas de clasificación, mostrando a los usuarios contenido que no se ajuste a sus preferencias preexistentes. También se sugiere el uso de la geografía y la implementación de un principio de imparcialidad inspirado en la doctrina de equidad aplicada a la radiodifusión para fomentar la diversidad de opiniones.

Legislar y regular la inteligencia artificial para la democracia

Profundizando en la cuestión de la legislación y regulación para la democracia, Simons nos remite al caso de Frances Haugen, una ex gerente de productos de Facebook, que testificó ante el Senado de los Estados Unidos el 5 de octubre de 2021. Argumentó que, para regular a Facebook y Google (hagámoslo extensible a las nuevas plataformas basadas en OpenAI y similares), «se necesita un organismo de supervisión dedicado, porque en este momento las únicas personas en el mundo que están capacitadas… para entender lo que está sucediendo dentro de Facebook son personas que crecieron dentro de Facebook». Este organismo de supervisión sería un nuevo «hogar regulatorio» con el conocimiento y la autoridad para crear estructuras de supervisión de empresas tecnológicas como Facebook y Google. Para diseñar y establecer este organismo, debemos «romper con los marcos regulatorios anteriores… las protecciones de privacidad o los cambios en la Sección 230 por sí solos no serán suficientes… porque no llegarán al meollo del asunto, que es que nadie realmente entiende… las decisiones tomadas por Facebook«.

 

El libro se ha centrado en un tipo de decisión tomada por organizaciones como Facebook: decisiones sobre el diseño e integración de sistemas de aprendizaje automático. Cuando organizaciones como agencias de bienestar infantil o departamentos de policía toman decisiones sobre el diseño y uso de estos sistemas, ejercen un tipo distintivo de poder: el poder de predecir.

 

Haugen fue una de las primeras informantes en reconocer la importancia del carácter político de este poder para regular a Facebook y Google. Una y otra vez argumentó que las decisiones más importantes que toman Facebook y Google son decisiones cargadas de valores sobre el diseño de sistemas de aprendizaje automático que funcionan como parte de la infraestructura de la esfera pública, como el feed de noticias de Facebook o la búsqueda de Google. Gobernar estas decisiones requerirá ir más allá de los marcos regulatorios existentes.

 

¿Cómo debería Facebook diseñar un sistema de noticias para permitir que los ciudadanos diversos se encuentren en condiciones de respeto e igualdad y lleguen a conocerse realmente? ¿Cómo debería Google diseñar un sistema de búsqueda para respaldar la formación de conocimiento compartido y una arquitectura de información cívica resiliente? ¿Cómo deberían las democracias asegurarse de que Facebook y Google construyan sistemas que respalden las condiciones sociales e informativas del autogobierno colectivo?

 

Estas preguntas nos recuerdan que la conexión entre valores políticos y decisiones en el aprendizaje automático es fundamental para regular a Facebook y Google. Los desacuerdos sobre valores políticos y cómo incorporarlos en los sistemas de aprendizaje automático son inevitables y deseables. Siempre habrá controversias sobre qué principios deberían guiar el diseño de nuestra esfera pública y cómo se expresan esos principios en el diseño de los sistemas de aprendizaje automático. Lo importante es que regulamos a Facebook y Google para institucionalizar el proceso de hacer y responder las preguntas correctas, aquellas que nos obligan a articular cómo se concibe, qué aspecto presenta,  una esfera pública saludable y un ecosistema de información y a justificar cómo diseñamos los sistemas de aprendizaje automático a la luz de esa visión. Lo que necesitamos es un régimen de gobernanza que invite a la experimentación y reflexión intencionales y mantenga viva la posibilidad de cambio y revisión en el diseño de los sistemas de aprendizaje automático que funcionan como infraestructura digital para respaldar las condiciones sociales e informativas del autogobierno colectivo.

 

Este enfoque requiere, como se ha señalado anteriormente, dos cambios cruciales en cómo pensamos en la regulación de Facebook y Google. El primero es pasar del enfoque en explicaciones técnicas al enfoque en justificaciones institucionales. Necesitamos estructuras de responsabilidad que exijan a Facebook y Google justificar cómo los sistemas que construyen promueven objetivos compartidos, como los principios de anticorrupción, diversidad y experiencia compartida. Esas justificaciones no requieren explicaciones técnicas de la lógica interna de los modelos de aprendizaje automático, como sugieren muchas propuestas regulatorias centradas en la privacidad, sino justificaciones fundamentadas que revelen los valores políticos incorporados en las elecciones técnicas. El segundo es pasar de una toma de decisiones tecnocrática a una participativa. Necesitamos involucrar a actores de la sociedad civil y organismos públicos con conocimientos y experiencia relevantes en juicios continuos sobre cómo promover objetivos compartidos en el diseño de los sistemas de aprendizaje automático de Facebook y Google.

 

El autor insiste en la necesidad de la creación de un nuevo organismo regulador de plataformas, la Agencia de Plataformas de IA (APA), para desarrollar mecanismos de gobernanza participativa empoderada. La regulación de Facebook y Google es una oportunidad para la innovación regulatoria. Al combinar reformas estructurales a la gobernanza corporativa y al estado administrativo con el escrutinio a través de la toma de decisiones participativa, el enfoque no solo regularía a Facebook y Google, sino que también introduciría un cambio muy necesario en cómo abordamos la regulación en sí misma, abandonando la búsqueda de soluciones estables y tecnocráticas, y abrazando el experimentalismo institucional como parte del proyecto urgente de reforma democrática.

Inteligencia artificial y democracia: transparencia y responsabilidad

Un aspecto importante, como ya se ha mencionado, a considerar en la esfera pública digital es la transparencia y la responsabilidad. Las plataformas digitales deben asumir la responsabilidad de sus algoritmos y sistemas de clasificación, y ser transparentes en cuanto a cómo funcionan y cómo impactan en la presentación de contenido. Esto implica revelar información sobre las reglas y políticas utilizadas para moderar el contenido, así como ser claros en cuanto a las medidas tomadas para combatir la desinformación, los discursos de odio y otros abusos en línea.

 

Respecto al tema de la transparencia y explicaciones redentoras de cuentas, Paula Boddington, argumenta que la falta de transparencia en los sistemas de IA, a menudo llamados «cajas negras«, dificulta comprender cómo se engendran los resultados. Esta falta de transparencia dificulta o hace imposible proporcionar una explicación sobre cómo funciona la tecnología y por qué se adopta. Se ha prestado considerable atención a estos problemas, incluyendo declaraciones de organismos profesionales y acciones regulatorias. En la Unión Europea, se han establecido regulaciones que restringen el uso de la toma de decisiones automatizada cuando afecta significativamente a las personas. Esto implica en la práctica el «derecho a una explicación» en ciertas circunstancias, como en las decisiones que involucran la asignación de recursos públicos. Sin embargo, proporcionar una explicación en estos casos puede ser difícil. Es importante tener en cuenta que lo que podría considerarse una explicación adecuada para los científicos de la computación expertos en estas áreas puede resultar insatisfactoria o confusa para muchas otras personas. Se debe prestar atención cuidadosa a lo que se considera una explicación útil y funcional en diferentes circunstancias. Se están realizando esfuerzos para encontrar soluciones al problema de proporcionar explicaciones que aumenten la transparencia. Se han propuesto diferentes enfoques, como explicaciones contrastivas y explicaciones contrafactuales, que permiten mostrar por qué los resultados no son diferentes o cómo podrían cambiarse los resultados ajustando elementos del algoritmo, respectivamente. Las explicaciones contrafactuales podrían utilizarse sin necesidad de revelar los detalles técnicos internos del algoritmo. Sin embargo, también se plantea la preocupación de que centrarse demasiado en la transparencia y el derecho a una explicación pueda distraer de otros problemas éticos y daños sustanciales causados por los algoritmos. Algunos argumentan que las demandas de transparencia pueden exigir a la IA un estándar más alto que el aplicado a los seres humanos, ya que existen límites para la cantidad de explicación que es razonable o posible proporcionar en las decisiones. Además, se destaca la importancia de pensar detenidamente en el objetivo de la transparencia para evitar consecuencias dañinas no deseadas. Las demandas de transparencia pueden ser utilizadas para manipular un sistema y pueden amenazar otros valores, como la privacidad, además de tener costos de eficiencia. La transparencia no es necesariamente un fin en sí mismo, y es necesario considerar la necesidad de transparencia en diferentes ocasiones para determinar qué se requiere exactamente. Esto puede incluir la posibilidad de auditar un sistema por un experto o permitir que un usuario cuestione una decisión.

 

Además, las plataformas también podrían considerar la implementación de mecanismos de rendición de cuentas, como la creación de comités o consejos independientes que supervisen y evalúen sus políticas y prácticas. Estos comités podrían estar compuestos por expertos en derechos humanos, ética digital, periodismo y otros campos relevantes, y su objetivo sería asegurar que las decisiones tomadas por las plataformas sean justas, transparentes y respeten los derechos fundamentales de los usuarios.

 

Asimismo, es esencial fomentar la alfabetización mediática y digital entre los usuarios. La educación en medios y la enseñanza de habilidades críticas en el consumo de información deben ser prioridades en los sistemas educativos y en las políticas públicas. Los ciudadanos necesitan las herramientas necesarias para evaluar de manera crítica la información que encuentran en línea, identificar la desinformación y comprender cómo funcionan los algoritmos y las clasificaciones de contenido.

 

Finalmente, es importante fomentar la colaboración y el diálogo entre los diversos actores involucrados en la esfera pública digital. Esto incluye a las plataformas digitales, los gobiernos, la sociedad civil, los medios de comunicación y los ciudadanos. Es necesario establecer espacios de discusión y colaboración donde se puedan abordar los desafíos y se puedan buscar soluciones conjuntas.

Sesgos y elaboración de una ética de la inteligencia artificial

Volviendo con Paula Boddington, la autora subraya la presencia de sesgos en los intentos de abordar los problemas éticos relacionados con el contenido en línea, planteando la necesidad de ser conscientes de posibles sesgos en aquellos que se ocupan de la ética, la política y la regulación. Subraya que los sesgos pueden manifestarse en diversas áreas, como la configuración del problema, los algoritmos, los moderadores humanos y los bucles de retroalimentación generados por los métodos adoptados para abordar los problemas.

 

En particular, se destaca el sesgo en los algoritmos, especialmente cuando se trata de interpretar el lenguaje natural, lo que puede llevar a la discriminación contra determinados grupos étnicos y culturales que ya sufren discriminación. Se plantea la preocupación de que el uso de algoritmos para abordar problemas éticos pueda fortalecer aún más la dominación lingüística y cultural de aquellos que ya tienen poder, fomentando así la conformidad.

 

Se advierte que el sesgo puede infiltrarse en cualquier problema ético desde el principio, dependiendo de cómo se formule e ilustre el problema. Se ejemplifica con los conceptos de «odio en línea» y «daños en línea», destacando que el sesgo puede estar presente tanto en la aceptación como en el rechazo de las reclamaciones relacionadas con estos problemas. También se plantea que una vez que se ha identificado un problema de cierta manera, las medidas tomadas para abordarlo pueden reforzar aún más el punto de vista inicial, generando así un círculo vicioso. Se ilustra este punto mediante un ejemplo simplificado que involucra a los amantes de los perros y los amantes de los gatos en línea, mostrando cómo las medidas adoptadas para abordar un problema pueden sesgar el debate y las acciones subsiguientes.

 

Se examinan también las estructuras organizativas en las que se desarrolla la ética y la política en inteligencia artificial, advirtiendo sobre los peligros del pensamiento grupal. Se enfatiza la necesidad de la participación de grupos independientes de la sociedad civil y de diversas opiniones en los debates y en el desarrollo de políticas, a fin de evitar la consolidación de sesgos y garantizar una perspectiva más amplia y equilibrada.

 

Se aborda la cuestión de los intereses gubernamentales en la formulación de políticas y ética en inteligencia artificial, destacando la relación entre el liderazgo ético y el liderazgo tecnológico. Se advierte sobre la posibilidad de influencias de grupos de presión que buscan beneficiarse económicamente del desarrollo de tecnologías de seguridad utilizadas, entre otras cosas, para la moderación de contenido. También se plantea la preocupación de asignar responsabilidades a las empresas que desarrollan, comercializan y se benefician de las tecnologías que generan estos problemas y que también se encargan de moderar el contenido. Se cuestiona si es adecuado encomendar a quienes han creado el problema la tarea de solucionarlo, lo cual podría generar conflictos de interés y falta de imparcialidad en las acciones emprendidas.

 

Finalmente, se plantea la necesidad de reflexionar sobre cómo nuestra percepción de la tecnología, sus capacidades y sus fallos puede influir en la forma en que percibimos el mundo y a los demás. Esto es, la posibilidad de que la idea de erradicar los sesgos y los daños en línea mediante la tecnología pueda influir en nuestra comprensión del mundo y de nosotros mismos. Además, se cuestiona si la idea de utilizar la tecnología para crear «el lugar más seguro del mundo para navegar en línea» podría influir en nuestra percepción de la seguridad y el riesgo.

Más artículos

Elicitación de creencias salientes. Mapa de ideas.
Actitudes en marketing: importancia y determinantes.

Actitudes en marketing: importancia y determinantes. En marketing, el estudio de las actitudes es fundamental para comprender el comportamiento del consumidor o público objetivo y desarrollar estrategias de marketing efectivas. Las actitudes son evaluaciones duraderas y relativamente estables que las

Read More »
Elaboration Likelihood Model (ELM). Esquema.
Cambiar actitudes a través del marketing con el ELM

Cambiar actitudes a través del marketing con el ELM CONTENIDOS Elaboration Likelihood Model (ELM) como marco teórico para cambiar actitudes a través del marketing Conseguir cambiar actitudes es uno de los objetivos fundamentales del marketing. De un modo u otro,

Read More »