¿Cómo puede la IA afectar a las personas LGBTQIA+ en la India? Tres investigadores queer de origen indio explican

Cuando uno intenta buscar ‘Queer in AI’, el primer sitio web con el que se topa es ‘Queer AI’. Se trata de un chatbot de IA creado por un grupo de investigadores que descubrieron que la IA estaba heredando los prejuicios de sus creadores: que se comportaba de una manera que mantenía las discriminaciones sistémicas existentes, incluidas aquellas contra las personas queer. Los investigadores entrenaron los modelos Queer AI en la teoría queer y la literatura feminista, y para rendir homenaje a todas las personas queer. Más tarde dejaron el sitio web como de libre acceso para todos: como “una ética de encarnación”, como dice un mensaje en el sitio web.

El colectivo en línea Queer in AI desempeña una función muy similar (visibilizar los efectos de la IA en las personas queer) pero en el mundo fuera de línea. Creado por científicos, defiende los intereses de las personas queer en el campo de la IA y el lenguaje de máquina a través de una comunidad de, por y para investigadores queer de IA. Esto incluye programas de extensión como talleres en conferencias, reuniones sociales, programas de tutoría y un programa de ayuda financiera para solicitudes de posgrado.


desempaquetar

El grupo también ha sido invitado a consultar sobre iniciativas, incluso por parte del gobierno de Biden para ayudar a construir la política gubernamental para la IA y por el Instituto Nacional de Salud de los Estados Unidos para comentar sobre encuestas demográficas.

Actualmente, uno de los proyectos más importantes en los que se centra el grupo es abogar por que la publicación sea inclusiva para las personas transgénero, como garantizar que Google Scholar evite el uso del nombre muerto o antiguo de los autores transgénero. El grupo ha ayudado a crear un verificador de archivos punto pdf para analizar y corregir estos nombres, todos compilados en un sitio web llamado Scholarhasfailedus.

También ha presentado artículos, como uno sobre diseño participativo liderado por la comunidad en IA, que ganó el premio al mejor artículo en la Conferencia ACM sobre Justicia, Responsabilidad y Transparencia (FaccT) por evaluar los daños específicos de las comunidades queer en el aprendizaje automático.

Recientemente, el Primer Ministro Modi pidió regulaciones globales para garantizar el uso ético de la IA, después de que el Ministro de Estado de Electrónica y Tecnología de la Información, Rajeev Chandrasekhar, dijera en junio que India comenzará a regular la IA. Este es un cambio con respecto a la postura anterior del gobierno, ya que en abril había dicho que no había ningún plan para regular la IA. El gobierno indio también ha abierto un portal para la “visión de la IA de la India”.

El equipo central de Queer in AI tiene muchos miembros que son indios o de origen indio, un grupo que está representado de manera destacada en la industria tecnológica global. Muchos de ellos trabajan con prácticas éticas en aprendizaje automático. A medida que la ola de IA llega a la India, hablamos con tres de ellos sobre sus mayores preocupaciones.

See also  Shayden Walker Sister and Brother Name: Parents Ethnicity

Salta a

Enlace de salto

Desinformación

“El mayor peligro a corto plazo de la IA generativa es la desinformación”, dice Avijit Ghosh, de 27 años, científico de datos de investigación en AdeptID y profesor de la Facultad de Ciencias de la Computación Khoury de la Universidad Northeastern. “Los modelos de generación de imágenes y textos pueden suponer un grave riesgo en la India sin mecanismos integrados de verificación de datos, especialmente antes de las elecciones generales de 2024, y me temo que pueden provocar violencia comunitaria si se utilizan para difundir mentiras”.

Lea también: En busca de Occidente: ¿Por qué la población queer india quiere mudarse?

“La moderación de contenido basada en IA en los sitios de redes sociales también puede ser abrumadoramente censuradora para la educación sexual y las personas queer, sin hacer nada para combatir el daño o la homofobia o la transfobia”, añade Arjun Subramonian, nativo de California de 23 años, que actualmente está haciendo un Doctorado en aprendizaje automático en UCLA, que analiza cómo los modelos de aprendizaje profundo intensifican las desigualdades estructurales en las redes sociales.

¿Cómo puede la IA afectar a las personas LGBTQIA+ en la India?  Tres investigadores queer de origen indio explican
desempaquetar

Amplificar el sesgo implícito

Para Ghosh, otro peligro importante para las personas queer debido a la IA proviene de algunos de sus posibles usos en el análisis predictivo, en el que una IA hace predicciones detectando patrones en conjuntos de datos en los que ha sido entrenada. En 2017, un par de investigadores de la Universidad de Stanford afirmaron haber demostrado que se podía entrenar la IA para predecir la orientación sexual de las personas a partir de la construcción facial. Dijeron que lo hicieron para demostrar los inmensos peligros que la IA puede representar para la privacidad.

“Es una aplicación muy poco ética de la fisonomía digital que podría tener enormes implicaciones para la privacidad y la discriminación, en áreas como el empleo o incluso el encarcelamiento”, dice Ghosh.

H, un organizador central de Queer in AI que es de origen indio y que prefiere permanecer en el anonimato, amplía esto a otros aspectos de los contextos socioeconómicos y culturales de la India.

Lea también: Cómo los colectivos universitarios queer en la India están creando espacios inclusivos en el campus

¿Cómo puede la IA afectar a las personas LGBTQIA+ en la India?  Tres investigadores queer de origen indio explican
desempaquetar

“Las aplicaciones de la IA en muchos campos podrían estar replicando sesgos mayoritarios como el de casta”, afirman. “Todos nuestros debates sobre la IA y las personas queer deben ser interseccionales, especialmente porque, aunque los indios de castas superiores y los indio-estadounidenses están bien representados en los círculos tecnológicos, esto no es cierto para los indios que pertenecen a comunidades minoritarias de género, sexualidad, casta, religión y discapacitados. .”

Sistema judicial

“Una de mis mayores preocupaciones con respecto a la India es el uso de la IA por parte del gobierno en los sistemas judiciales”, dice H. “Esto incluye la vigilancia: ahora tenemos cámaras en todas partes y sus datos van a la policía. ¿Podría usarse para empezar a predecir quién podría ser un criminal basándose en la apariencia?

See also  Jody Scheckter Family: Meet the South African Business Professional Wife and Children Ethnicity

Esto ya ha sucedido en múltiples partes del mundo. Los sistemas de evaluación de riesgos que utilizan modelos de IA a menudo predicen que las personas de raza negra tienen más probabilidades de cometer delitos, incluso si la evidencia demuestra lo contrario. En el contexto indio, Ghosh señala un artículo de Vidushi Marda y Shivangi Narayan que demostró que un sistema policial predictivo basado en inteligencia artificial en Nueva Delhi afectó más a los pobres.

Sin duda, estos prejuicios también podrían extenderse a las personas queer, dice Subramonian. “Si no tienes un cuerpo normativo con respecto al género, podrías correr un mayor riesgo de sufrir brutalidad policial”, dicen.

Pérdidas de empleo

A medida que la IA generativa, como los generadores de texto e imágenes, se adopta masivamente, muchos trabajos que ahora realizan los humanos pueden automatizarse o estar dirigidos por máquinas en un grado mucho mayor; ya hemos visto la adopción de la escritura, la música y el arte mediante la IA. entre industrias. Muchos expertos han advertido que la India no está preparada para afrontar el impacto de estas pérdidas de empleos. Algunos informes han dicho que sólo este año, la IA ya ha perdido 4.000 puestos de trabajo en la industria tecnológica.

“Si los sistemas de inteligencia artificial se utilizan para devaluar o reemplazar el trabajo humano para reducir costos, significa que las personas queer podrían perder el acceso a la familia, la vivienda, los seguros y otros servicios vinculados al empleo, y el seguro médico puede ser precario para ellos de todos modos”, dice Subramonian.

¿Cómo puede la IA afectar a las personas LGBTQIA+ en la India?  Tres investigadores queer de origen indio explican
desempaquetar

Medidas de atenuación

“La educación y la regulación de la IA son enormemente importantes”, afirma Ghosh. “Es necesario que haya una formación intensiva para concienciar sobre los daños y peligros de la IA. Es necesario enseñar a la gente cómo utilizarlo éticamente y advertirles que puede replicar o empeorar los prejuicios y generar enormes problemas de propiedad intelectual. Finalmente, los modelos deben entrenarse adecuadamente en los contextos culturales indios”.

“Tal como están las cosas, India no tiene una regulación específica de la IA”, dijo Prateek Waghre, director de políticas de la organización sin fines de lucro Internet Freedom Foundation. “La toma de decisiones automatizada probablemente enturbiará aún más las aguas porque el uso de tales sistemas puede usarse para limitar la transparencia y proteger (a las autoridades) de la rendición de cuentas”.

Lea también: Es el mundo de Meta y los queers no se sienten bienvenidos

Las Reglas de TI de 2021 incluyen cláusulas que establecen que las autoridades deben tomar medidas de diligencia debida para garantizar que los datos que tienen sobre un individuo no sean engañosos de ninguna manera, lo que técnicamente debería extenderse a la información errónea generada por los modelos de IA. La investigación de la Fundación muestra que estas obligaciones a menudo quedan invalidadas por exenciones, aplicaciones subjetivas y abusos de poder. Y aunque la Ley de Personas Transgénero (Protección de Derechos) de 2019 prohíbe la discriminación contra las personas trans, su implementación ya es irregular. Mientras tanto, no existe tal protección contra la homofobia, al menos en la forma actual del Código Penal indio.

See also  Carlo Ancelotti's weight loss journey: Football Manager health update

¿Cómo puede la IA afectar a las personas LGBTQIA+ en la India?  Tres investigadores queer de origen indio explican
desempaquetar

“El uso de la IA generativa puede añadir otra dimensión a esto, pero nuestro marco institucional actual y la resistencia social a dicha información ya son débiles”, añade Waghre.

“Una forma de neutralizar el sesgo en la IA es comprender y curar los datos de determinadas maneras, lo que se hace durante la fase de análisis de datos exploratorios (o EDA, por sus siglas en inglés) antes de entrenar los modelos”, afirma el científico de datos Anirban Saha. “Durante esta fase, es importante detectar cualquier falta de equilibrio en los datos y luego corregirla para neutralizar el sesgo”.

Saha añade que los científicos de datos deberían intentar interpretar las predicciones o los resultados proporcionados por los modelos de IA para ayudarles a detectar sesgos en los resultados, si los hubiera, antes de publicarlos.

“Por lo tanto, el gobierno necesita alentar a las empresas y estudiantes que desarrollan sistemas de inteligencia artificial a implementar estos métodos, a través de sus agencias”, dice. Añade que es necesario que existan vías para penalizar a las entidades que utilicen sistemas que hayan demostrado tener sesgos.

Sin embargo, la mayor parte del trabajo sobre la eliminación de sesgos en el procesamiento del lenguaje se realiza en inglés. Las necesidades únicas de la India, con sus numerosos idiomas, religiones, castas, credos y, por supuesto, comunidades queer, no se satisfacen a través de este trabajo.

¿Cómo puede la IA afectar a las personas LGBTQIA+ en la India?  Tres investigadores queer de origen indio explican
desempaquetar

“Otra opción puede ser proporcionar paquetes de código abierto para que las personas detecten sesgos en la IA, en mercados como Hugging Face”, dice Saha, “pero para crear los paquetes, primero se deben tener datos sobre los sesgos en el contexto indio”. ser armados”.

Por otro lado, la sindicalización podría ayudar a amortiguar los efectos de la IA, como la pérdida de empleos. Mientras Ghosh dice que el tecnofetichismo –o la idea de que la tecnología puede resolverlo todo, sin matices– es el verdadero problema que hay que abordar, Subramonian dice: “La tecnología debe desarrollarse éticamente; los desarrolladores deben pensar en quién puede verse afectado negativamente una vez que se haya implementado”.

“Queer in AI ha consultado con el gobierno de EE. UU. sobre las políticas de IA, como parte de las cuales algunas grandes empresas de IA acordaron agregar marcas de agua a sus modelos generativos”, dice Ghosh. “El gobierno indio debe empezar a hacer cumplir esto de inmediato”.

A medida que India adopta el uso de la IA, también comienzan a celebrarse conferencias. Una de las próximas es Cypher 2023, una cumbre de IA en la que se debate “La fusión del arte y la IA: navegando por el impacto de la inteligencia artificial en la industria creativa”.

“Como grupo virtual, Queer in AI no tiene capítulos locales, pero nos encantaría organizar una sesión en cualquier conferencia de AI en la India”, dice H. “Ciertamente, estamos abiertos a consultar con el gobierno indio si nos invitan a hacerlo”. .”

Para obtener más historias sobre la comunidad LGBTQIA+ y lo queer en la India, sigue leyendo Spectrum en TIT Education.

Categories: Trending
Source: vtt.edu.vn

Leave a Comment