<We_can_help/>

What are you looking for?

RESPONSIBLE AI ART GUIDE

Las herramientas de aprendizaje automático brindan el potencial para una expresión creativa sin precedentes, pero también el potencial para causar daños no deseados.

“Making AI Art Responsbly: A Field Guide” es un zine ilustrado compuesto de preguntas y estudios de casos para ayudar a los artistas de AI a utilizar las técnicas de AI de manera responsable y con cuidado.

Sugerimos que los artistas que utilizan IA se consideren parte de la comunidad más amplia de IA responsable. Como resultado, es importante considerar factores como el consentimiento de las personas representadas en sus conjuntos de datos, la mano de obra involucrada en el desarrollo del modelo y las herramientas / bases de código preexistentes, y la infraestructura de IA y los costos ambientales de la capacitación de modelos de aprendizaje automático. Esperamos que los artistas presten atención a las consecuencias dañinas potencialmente no deseadas del trabajo tal como se entiende en dominios como la seguridad de la información, la desinformación, el medio ambiente, los derechos de autor y los medios sintéticos sesgados y apropiados.

Con esta guía, creemos que al reflexionar sobre lo que es «responsable» de sus propios trabajos creativos, los artistas pueden impulsar las mejores prácticas empleadas por todos los profesionales de la IA.

Hacerlo puede garantizar que aprovechen el potencial expresivo de la IA de manera responsable.

Gray Area, DISEÑA y Mozilla Festival han presentado The Responsible AI Art Field Guide.

Lea la guía completa aquí: Making AI Art Responsibly: A Field Guide


Leibowicz, Saltz y Coleman reúnen perspectivas interdisciplinarias de estudios de medios, interacción humano-computadora, investigación de inteligencia artificial y bellas artes. Creen que cuando se trata del campo de la IA en rápida evolución, los artistas que utilizan técnicas de IA tienen la responsabilidad de entablar conversaciones con otras disciplinas, especialmente con la comunidad de IA responsable. Los autores crean sugerencias exploratorias que no son prescriptivas, sino que guían al público a reflexionar sobre sus propias prácticas con el fin de crear trabajos con más cuidado y atención a impactos sociales más amplios.

Claire Leibowicz

Claire Leibowicz dirige el programa de inteligencia artificial e integridad de los medios de la Asociación sobre inteligencia artificial. Claire tiene una licenciatura en psicología y ciencias de la computación, Phi Beta Kappa y Magna Cum Laude, de Harvard, y una maestría en Ciencias Sociales de Internet de la Universidad de Oxford como Clarendon Scholar.

Emily Saltz

Emily Saltz es consultora de investigación en Partnership on AI y estudia la desinformación. Antes de eso, Emily dirigió UX para The News Provenance Project en The New York Times. Ha presentado trabajos sobre nuevos medios en Eyeo, CHI Play, WordHack y más. Tiene una Maestría en Interacción Hombre-Computadora de la Universidad Carnegie Mellon.

Lia Coleman

Lia Coleman es una artista, investigadora de inteligencia artificial y educadora que enseña arte de aprendizaje automático en la Escuela de Diseño de Rhode Island. Ha presentado trabajos en NeurIPS, New York University, Mozilla Festival, Gray Area y Partnership on AI. Su escritura sobre arte de IA ha sido publicada por Princeton Architectural Press y Neocha Magazine. Tiene una licenciatura en Ciencias de la Computación del Massachusetts Institute of Technology.


Watch Vídeo