Inteligencia artificial codifica estereotipos negativos en usuarios, según estudio

De acuerdo con datos de preocupación por la codificación de sesgos y estereotipos negativos provenientes de la IA.

La integración de la IA al sistema social trajo consigo una fuerte influencia en los usuarios que día con día exponen su información en estudios de Trinity College Dublín demostraron que la codificación de datos por parte de la inteligencia artificial tiene sesgos y estereotipos negativos en torno a los usuarios.

¿Cómo se administran las bases de datos?

El problema es que la IA no solo crea información sesgada y llena de estereotipos, pues también se encarga de afirmarla y difundirla a nivel masivo como verdad absoluta. Esto se vuelve una amenaza latente contra los grupos marginados que son englobados dentro de estereotipos negativos. También se aborda el tema de exclusión y discriminación ante estos sectores, pues en ocasiones la información sesgada viene de la falta de información sobre los grupos marginados.

Una de las consecuencias con las que se puede ejemplificar esta problemática la presenta el Trinity College Dublín. Menciona que la IA arrojaron un índice de riesgo mayor para reincidir sobre acusados de piel oscura.

Ahora bien, la comunicación humana es diferente a la de los modelos generativos, mientras en la primera se detecta la incertidumbre mediante marcadores lingüísticos, en la segunda, la información siempre se percibe como verdadera. Este problema causa una confusión en los receptores y finalmente terminan por aceptar los resultados de la IA como verdaderos, aun cuando estén sesgados.

No obstante, uno de los mayores conflictos está en las fuentes de información creadas por IA, pues, tienen una fuerte preocupación llegan a ser niños y grupos vulnerables a estas fuentes, que crecen y desarrollan su mente con apoyo de las nuevas tecnologías.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.