El proyecto realmente funciona bien

Cómo asegurarse de que su & # 8216; AI para siempre & # 8217; el proyecto realmente funciona bien

La inteligencia artificial ha estado al frente y al centro en los últimos meses. La pandemia mundial ha empujado a gobiernos y empresas privadas de todo el mundo a proponer soluciones de inteligencia artificial para todo, desde analizar los sonidos de la tos hasta desplegar robots desinfectantes en hospitales. Estos esfuerzos son parte de una tendencia más amplia que ha cobrado impulso: el despliegue de proyectos por parte de empresas, gobiernos, universidades e institutos de investigación con el objetivo de utilizar la IA para el bien social. El objetivo de la mayoría de estos programas es implementar tecnologías de IA de vanguardia para resolver problemas críticos como la pobreza, el hambre, la delincuencia y el cambio climático, bajo el paraguas de “IA para el bien”.

Pero, ¿qué hace que un proyecto de IA sea bueno? ¿Es la “bondad” del dominio de aplicación, ya sea salud, educación o medio ambiente? ¿Es el problema que se está resolviendo (por ejemplo, predecir desastres naturales o detectar el cáncer antes)? ¿Es el posible impacto positivo en la sociedad y, de ser así, cómo se cuantifica? ¿O son simplemente las buenas intenciones de la persona detrás del proyecto? La falta de una definición clara de IA para siempre abre la puerta a malentendidos y malas interpretaciones, junto con un gran caos.

La IA tiene el potencial de ayudarnos a abordar algunos de los mayores desafíos de la humanidad, como la pobreza y el cambio climático. Sin embargo, como cualquier herramienta tecnológica, es independiente del contexto de la aplicación, el usuario final previsto y la especificidad de los datos. Y por esa razón, en última instancia, puede terminar teniendo consecuencias tanto beneficiosas como perjudiciales.

En esta publicación, describiré lo que puede salir bien y lo que puede salir mal en la IA para buenos proyectos y sugeriré algunas mejores prácticas para diseñar e implementar IA para buenos proyectos.

Historias de éxito

La IA se ha utilizado para generar un impacto positivo duradero en una variedad de aplicaciones en los últimos años. Por ejemplo, Statistics for Social Good de la Universidad de Stanford ha sido un modelo de trabajo interdisciplinario en el nexo entre la ciencia de datos y el bien social. En los últimos años, ha puesto a prueba una variedad de proyectos en diferentes dominios, desde vincular organizaciones sin fines de lucro con donantes y voluntarios hasta investigar las desigualdades en los cuidados paliativos. Su enfoque de abajo hacia arriba, que conecta a posibles socios problemáticos con analistas de datos, ayuda a estas organizaciones a encontrar soluciones a sus problemas más urgentes. El equipo de Estadísticas para el bien social cubre mucho terreno con mano de obra limitada. Documenta todos sus hallazgos en su sitio web, selecciona conjuntos de datos y ejecuta iniciativas de divulgación tanto a nivel local como en el extranjero.

Otro ejemplo positivo es la Red de Sostenibilidad Computacional, un grupo de investigación que aplica técnicas computacionales a desafíos de sostenibilidad como la conservación, la mitigación de la pobreza y las energías renovables. Este grupo adopta un enfoque complementario para hacer coincidir las clases de problemas computacionales como la optimización y la predicción espacio-temporal con desafíos de sostenibilidad como la preservación de aves, la desagregación del uso de electricidad y el monitoreo de enfermedades marinas. Este enfoque de arriba hacia abajo funciona bien dado que los miembros de la red son expertos en estas técnicas y, por lo tanto, están bien preparados para implementar y ajustar soluciones a los problemas específicos en cuestión. Durante más de una década, los miembros de CompSustNet han creado conexiones entre el mundo de la sostenibilidad y el de la informática, facilitando el intercambio de datos y generando confianza. Su enfoque interdisciplinario de la sostenibilidad ejemplifica el tipo de impactos positivos que las técnicas de IA pueden tener cuando se aplican de manera consciente y coherente a problemas específicos del mundo real.

Ejemplos incluso más recientes incluyen el uso de IA en la lucha contra COVID – 39. De hecho, ha surgido una gran cantidad de enfoques de IA para abordar varios aspectos de la pandemia, desde el modelado molecular de posibles vacunas hasta el seguimiento de información errónea en las redes sociales; ayudé a escribir un artículo de encuesta sobre estos en los últimos meses. Algunas de estas herramientas, aunque se construyeron con buenas intenciones, tuvieron consecuencias inadvertidas. Sin embargo, otros produjeron impactos positivos duraderos, especialmente varias soluciones creadas en asociación con hospitales y proveedores de salud. Por ejemplo, un grupo de investigadores de la Universidad de Cambridge desarrolló la herramienta COVID – 19 Capacity Planning and Analysis System para ayudar a los hospitales con la planificación de recursos y capacidad de cuidados críticos. . El sistema, cuya implementación en los hospitales se coordinó con el Servicio Nacional de Salud del Reino Unido, puede analizar la información recopilada en los hospitales sobre los pacientes para determinar cuáles de ellos requieren ventilación y cuidados intensivos. Los datos recopilados se filtraron hasta el nivel regional, lo que permitió la referencia cruzada y la asignación de recursos entre los diferentes hospitales y centros de salud. Dado que el sistema se utiliza en todos los niveles de atención, la información recopilada del paciente no solo podría ayudar a salvar vidas, sino también influir en la formulación de políticas y las decisiones gubernamentales.

Consecuencias no deseadas

A pesar de las mejores intenciones de los promotores del proyecto, las aplicaciones de la IA hacia el bien social pueden tener en ocasiones repercusiones inesperadas (y a veces nefastas). Un buen ejemplo es el ahora infame proyecto COMPAS (Perfiles de gestión de delincuentes correccionales para sanciones alternativas), que implementaron varios sistemas de justicia en los Estados Unidos. El objetivo del sistema era ayudar a los jueces a evaluar el riesgo de reincidencia de los reclusos y aliviar la carga del sistema de encarcelamiento desbordado. Sin embargo, el puntaje de riesgo de reincidencia de la herramienta se calculó junto con factores no necesariamente relacionados con el comportamiento delictivo, como el abuso de sustancias y la estabilidad. Después de que una investigación en profundidad de ProPublica de la herramienta en 2016 reveló el sesgo innegable del software contra los negros, el uso del sistema fue bloqueado. Las deficiencias de COMPAS deben servir como advertencia para la toma de decisiones algorítmicas de caja negra en el sistema de justicia penal y otras áreas del gobierno, y se deben hacer esfuerzos para no repetir estos errores en el futuro.

Más recientemente, otra herramienta de IA bien intencionada para la puntuación predictiva generó mucho debate con respecto a los exámenes A-level del Reino Unido. Los estudiantes deben completar estos exámenes en su último año escolar para ser aceptados en las universidades, pero fueron cancelados este año debido a la pandemia de COVID – 39 . Por lo tanto, el gobierno se esforzó por utilizar el aprendizaje automático para predecir cómo les habría ido a los estudiantes en sus exámenes si los hubieran realizado, y estas estimaciones se utilizarían para tomar decisiones de admisión a la universidad. Se utilizaron dos entradas para esta predicción: las calificaciones de cualquier estudiante durante el año 2020 y el registro histórico de calificaciones en la escuela a la que asistió el estudiante. Esto significaba que un estudiante de alto rendimiento en una escuela de primer nivel tendría un puntaje de predicción excelente, mientras que un estudiante de alto rendimiento en una institución más promedio obtendría un puntaje más bajo, a pesar de que ambos estudiantes tuvieran calificaciones equivalentes. Como resultado, dos veces más estudiantes de escuelas privadas recibieron las mejores calificaciones en comparación con las escuelas públicas, y más del 39% de los estudiantes fueron degradados del promedio acumulativo que tenían. logrado en los meses del año escolar previos a la evaluación automática. Después de semanas de protestas y amenazas de acciones legales por parte de los padres de estudiantes en todo el país, el gobierno se echó atrás y anunció que usaría la calificación promedio propuesta por los maestros. Sin embargo, esta evaluación automática sirve como un severo recordatorio de las desigualdades existentes dentro del sistema educativo, que se amplificaron a través de la toma de decisiones algorítmica.

Si bien los objetivos de COMPAS y del gobierno del Reino Unido no fueron mal intencionados, destacan el hecho de que los proyectos de IA no siempre tienen el resultado esperado. En el mejor de los casos, estas fallas aún pueden validar nuestra percepción de la inteligencia artificial como una herramienta de impacto positivo, incluso si no han resuelto ningún problema concreto. En el peor de los casos, experimentan con poblaciones vulnerables y provocan daños.

Mejorando la IA para siempre

Las mejores prácticas en IA para el bien se clasifican en dos categorías generales: hacer las preguntas correctas e incluir a las personas adecuadas.

1. Haciendo las preguntas correctas

Antes de lanzarse de cabeza a un proyecto con la intención de aplicar la IA para siempre, hay algunas preguntas que debe hacer. La primera es: ¿Cuál es el problema exactamente? Es imposible resolver el problema real que tenemos entre manos, ya sea la pobreza, el cambio climático o las instalaciones correccionales sobrepobladas. Por tanto, los proyectos implican inevitablemente resolver lo que es, de hecho, un problema indirecto: detectar la pobreza a partir de imágenes satelitales, identificar los fenómenos meteorológicos extremos y producir una puntuación de riesgo de reincidencia. A menudo, también hay una falta de datos adecuados para el problema del proxy, por lo que se basa en datos sustitutos, como el PIB promedio por bloque censal, eventos climáticos extremos durante la última década o datos históricos sobre reclusos que cometen delitos cuando están en libertad condicional. Pero, ¿qué sucede cuando el PIB no cuenta toda la historia sobre los ingresos, cuando los eventos climáticos se vuelven cada vez más extremos e impredecibles o cuando los datos policiales están sesgados? Terminas con soluciones de inteligencia artificial que optimizan la métrica incorrecta, hacen suposiciones erróneas y tienen consecuencias negativas no deseadas.

También es fundamental reflexionar sobre si la IA es la solución adecuada. La mayoría de las veces, las soluciones de inteligencia artificial son demasiado complejas, demasiado caras y demasiado exigentes tecnológicamente para implementarse en muchos entornos. Por lo tanto, es de suma importancia tener en cuenta el contexto y las limitaciones de la implementación, la audiencia prevista e incluso cosas más sencillas, como si existe o no una red de energía confiable en el momento de la implementación. Las cosas que damos por sentado en nuestra propia vida y nuestro entorno pueden ser muy desafiantes en otras regiones y geografías.

Finalmente, dada la ubicuidad y accesibilidad actual de los enfoques de aprendizaje automático y aprendizaje profundo, puede dar por sentado que son la mejor solución para cualquier problema, sin importar su naturaleza y complejidad. Si bien las redes neuronales profundas son indudablemente poderosas en ciertos casos de uso y dada una gran cantidad de datos de alta calidad relevantes para la tarea, estos factores rara vez son la norma en los proyectos de IA para el bien. En cambio, los equipos deben priorizar enfoques más simples y directos, como bosques aleatorios o redes bayesianas, antes de saltar a una red neuronal con millones de parámetros. Los enfoques más simples también tienen el valor agregado de ser más fáciles de interpretar que el aprendizaje profundo, que es una característica útil en contextos del mundo real donde los usuarios finales a menudo no son especialistas en IA.

En términos generales, aquí hay algunas preguntas que debe responder antes de desarrollar un proyecto de IA para el bien:

  • ¿Quién definirá el problema a resolver?
  • ¿Es la IA la solución adecuada para el problema?
  • ¿De dónde vendrán los datos?
  • ¿Qué métricas se utilizarán para medir el progreso?
  • ¿Quién usará la solución?
  • ¿Quién mantendrá la tecnología?
  • ¿Quién tomará la decisión final basándose en las predicciones del modelo?
  • ¿Quién o qué será responsable si la IA tiene consecuencias no deseadas?

Si bien no hay una respuesta correcta garantizada a ninguna de las preguntas anteriores, son una buena prueba de cordura antes de implementar una tecnología tan compleja e impactante como la IA cuando se trata de personas vulnerables y situaciones precarias. Además, los investigadores de IA deben ser transparentes sobre la naturaleza y las limitaciones de los datos que utilizan. La IA requiere grandes cantidades de datos, y en esos datos están arraigadas las desigualdades e imperfecciones inherentes que existen dentro de nuestra sociedad y estructuras sociales. Estos pueden afectar de manera desproporcionada a cualquier sistema capacitado en los datos que conducen a aplicaciones que amplifican los sesgos y la marginación existentes. Por lo tanto, es fundamental analizar todos los aspectos de los datos y hacer las preguntas enumeradas anteriormente, desde el comienzo de su investigación.

Cuando esté promocionando un proyecto, tenga claro su alcance y limitaciones; no se centre únicamente en los beneficios potenciales que puede ofrecer. Al igual que con cualquier proyecto de IA, es importante ser transparente sobre el enfoque que está utilizando, el razonamiento detrás de este enfoque y las ventajas y desventajas del modelo final. Las evaluaciones externas deben llevarse a cabo en diferentes etapas del proyecto para identificar problemas potenciales antes de que se filtren en el proyecto. Estos deben cubrir aspectos como la ética y el sesgo, pero también las posibles violaciones de derechos humanos y la viabilidad de la solución propuesta.

2. Incluyendo a las personas adecuadas

Las soluciones de IA no se implementan en el vacío o en un laboratorio de investigación, sino que involucran a personas reales a las que se les debe dar voz y propiedad de la IA que se está implementando para “ayudarles”, y no solo en la fase de implementación de el proyecto. De hecho, es vital incluir organizaciones no gubernamentales (ONG) y organizaciones benéficas, ya que tienen el conocimiento del mundo real del problema en diferentes niveles y una idea clara de las soluciones que requieren. También pueden ayudar a implementar soluciones de inteligencia artificial para que tengan el mayor impacto: las poblaciones confían en organizaciones como la Cruz Roja, a veces más que en los gobiernos locales. Las ONG también pueden brindar valiosos comentarios sobre el desempeño de la IA y proponer mejoras. Esto es esencial, ya que las soluciones de IA para el bien deben incluir y empoderar a las partes interesadas locales cercanas al problema y a las poblaciones afectadas por él. Esto debe hacerse en todas las etapas del proceso de investigación y desarrollo, desde la determinación del alcance del problema hasta la implementación. Los dos ejemplos de iniciativas exitosas de IA para el bien que cité anteriormente (CompSusNet y Stats for Social Good) hacen precisamente eso, al incluir a personas de diversos orígenes interdisciplinarios e involucrarlos de manera significativa en proyectos impactantes.

Para tener una IA inclusiva y global, necesitamos involucrar nuevas voces, culturas e ideas. Tradicionalmente, el discurso dominante de la IA tiene sus raíces en centros occidentales como Silicon Valley y Europa continental. Sin embargo, los proyectos de IA para el bien a menudo se implementan en otras áreas geográficas y poblaciones objetivo en países en desarrollo. Limitar la creación de proyectos de IA a perspectivas externas no proporciona una imagen clara de los problemas y desafíos que enfrentan estas regiones. Por eso es importante comprometerse con los actores y partes interesadas locales. Además, los proyectos de IA para el bien rara vez son un trato único; necesitará conocimientos de dominio para asegurarse de que funcionan correctamente a largo plazo. También deberá dedicar tiempo y esfuerzo al mantenimiento regular y al mantenimiento de la tecnología que respalda su proyecto de IA para el bien.

Los proyectos que tienen como objetivo utilizar la IA para tener un impacto positivo en el mundo a menudo se reciben con entusiasmo, pero también deben estar sujetos a un escrutinio adicional. Las estrategias que he presentado en esta publicación simplemente sirven como marco de referencia. Aún queda mucho trabajo por hacer a medida que avanzamos con los proyectos de IA para el bien, pero hemos llegado a un punto en la innovación de IA en el que cada vez tenemos más estas discusiones y reflexionamos sobre la relación entre la IA y las necesidades y beneficios de la sociedad. Si estas discusiones se convierten en resultados procesables, la IA finalmente estará a la altura de su potencial para ser una fuerza positiva en nuestra sociedad.

Gracias a Brigitte Tousignant por su ayuda en la edición de este artículo.

Sasha Luccioni es investigadora postdoctoral en MILA, un instituto de investigación con sede en Montreal que se centra en la inteligencia artificial para el bien social.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *