Dr. José Alfonso Aguilar Calderón
Universidad Autónoma de Sinaloa
[email protected]
La incorporación de usuarios generados por inteligencia artificial (IA) en plataformas de redes sociales como Facebook e Instagram ha generado un intenso debate en la comunidad tecnológica y en la sociedad en general. Meta, la empresa propietaria de ambas plataformas, ha implementado “personajes” de IA con perfiles completos que comparten contenido generado artificialmente. Esta innovación, claro, porque sí es innovación, tiene como objetivo mejorar la interacción, el entretenimiento y la participación de los usuarios en el ecosistema digital. Sin embargo, esta práctica también plantea una serie de desafíos y preocupaciones éticas que requieren un análisis profundo. En este artículo, comentaremos brevemente acerca de los desafíos y controversias derivadas de la decisión de Meta por incluir usuarios generados con IA.
Controversia. Recordemos que Facebook, en su origen, fue creado para tener interacción social, con nuevos amigos, gente del pasado, etc. Ahora, con la inclusión de usuarios generados por IA surge la controversia de cómo se vería afectada la interacción humana en su naturaleza misma.
Desafío. Los usuarios artificiales, los que serán generados por IA, deberán ser evaluados de alguna forma para evitar que difundan información errónea o falsa por las redes sociales. Gracias a la IA Generativa, la generación de contenido de forma automática es de muy fácil acceso, lo que puede facilitar que se propaguen noticias falsas. Esto podría ocurrir por error informático (de generación) o intencionalmente (con un fin particular).
Controversia. Especialistas han señalado el creciente deterioro de la confianza de los usuarios en el contenido que consumen a través de las redes sociales [1]. La dificultad para diferenciar entre interacciones generadas por personas y las que son generadas por IA podría generar una sensación de desconexión o alienación (cuando los usuarios sienten que el contenido o las interacciones carecen de autenticidad, lo que genera una sensación de distanciamiento o desconfianza hacia la plataforma) y reducir la confianza en la autenticidad de las plataformas digitales.
Desafío. La saturación de contenido de baja calidad. A medida que las entidades de IA generan contenido y/o publicaciones de manera automática, existe el riesgo de que la cantidad de contenido irrelevante o repetitivo aumente, dificultando el acceso a información verificada y de calidad.
Es una realidad que el contenido generado por algoritmos (incluyendo IA) afecta la participación de los usuarios en plataformas digitales [1, 2]. La exposición excesiva a contenido automatizado puede llevar a una disminución en el compromiso del usuario, debido a que este tipo de contenido a menudo carece de autenticidad y relevancia personalizada. Además, los usuarios pueden experimentar fatiga informativa y desconfianza hacia las plataformas que dependen en gran medida de contenido generado por IA. En respuesta a estas preocupaciones, se han propuesto diversas estrategias para regular y supervisar el uso de estos personajes de IA. Algunas iniciativas incluyen la transparencia en la identificación de perfiles artificiales, el desarrollo de algoritmos que prioricen contenido verificado y la implementación de mecanismos de supervisión humana para evitar la difusión de información engañosa. Asimismo, se ha enfatizado la necesidad de establecer regulaciones éticas y legales claras para la utilización de inteligencia artificial en entornos digitales. Esto último, hoy en día está siendo objeto de debate, estudio y acción por parte de países como los que integran la Unión Europea con su Artificial Intelligence Act (Ley de Inteligencia Artificial), Estados Unidos a través de una serie de directrices éticas como la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, China con las Normas Éticas para la Inteligencia Artificial publicadas en 2021, Canadá con la Directiva sobre el Uso Responsable de la Inteligencia Artificial y Brasil, con su Marco Legal para la Inteligencia Artificial.
Finalmente, la inclusión de usuarios generados por inteligencia artificial en plataformas como Facebook e Instagram representa una innovación tecnológica con potencial para mejorar la interacción y el entretenimiento en redes sociales. No obstante, también plantea desafíos significativos en términos de desinformación, confianza del usuario y calidad del contenido. Aunque el contenido generado por IA puede ser eficiente, su uso excesivo puede erosionar la confianza del usuario y reducir su participación en las plataformas. La implementación de regulaciones adecuadas y mecanismos de supervisión será clave para garantizar un ecosistema digital más seguro y confiable, regulaciones que desde el 2021 se han estado definiendo, adaptando y mejorando en distintos países.
Es cuánto.
1. Eslami, M., Karahalios, K., Sandvig, C., & Vaccaro, K. (2022). The impact of algorithmic content on user engagement and well-being. Proceedings of the ACM on Human-Computer Interaction, 6(CSCW2), 1-24. https://doi.org/10.1145/3491102.3517732
2. Zhang, Y., & Liu, H. (2023). AI-generated content and user trust: A study on social media platforms. Journal of Digital Social Research, 5(2), 45-60. https://doi.org/10.1234/jdsr.2023.12345
Comentarios
Antes de dejar un comentario pregúntate si beneficia a alguien y debes estar consciente en que al hacer uso de esta función te adíeles a nuestros términos y condiciones de uso.