Pedro Domingos, profesor emérito de informática de la Universidad de Washington. (UW Photo)
El departamento de informática de la Universidad de Washington denunció los comentarios hechos en línea por un profesor jubilado sobre un debate sobre la ética de la IA, la controvertida salida de Timnit Gebru en Google, la llamada «cultura de cancelación» y más.
Un acalorado intercambio entre el investigador de inteligencia artificial Pedro Domingos y la respuesta de la Universidad de Washington demuestra la complejidad del discurso público sobre temas controvertidos. También destaca preguntas sin respuesta relacionadas con las implicaciones sociales de la inteligencia artificial, y es el ejemplo más reciente de la reacción que puede ocurrir cuando la política choca con la academia y la industria tecnológica.
Domingos, quien se unió a la facultad de UW en 1999 y es el autor de The Master Algorithm, desató la discusión inicial en Twitter después de que él cuestionó por qué la conferencia Neural Information Processing Systems (NeurIPS) estaba usando revisiones éticas para los artículos enviados.
“Es alarmante que los artículos de NeurIPS se estén publicando rechazado basado en 'revisiones éticas' ”, tuiteó la semana pasada. “¿Cómo nos protegemos contra los sesgos ideológicos en tales revisiones? ¿Desde cuándo las conferencias científicas en el negocio de vigilar la ética percibida de los artículos técnicos? «
Su opinión obtuvo una serie de respuestas de otros científicos de datos importantes y de aquellos involucrados con NeurIPS.
Hola Pedro, ayudé a crear el proceso de revisión ética de NeurIPS. Parece que ya se está llevando a cabo una discusión saludable, pero avíseme si puedo responder alguna pregunta específica. De entrada, debo decir que los revisores éticos dieron su opinión; no aceptaron / rechazaron documentos.
El discurso en Twitter luego cambió a la decisión del año pasado de cambiar el nombre de NeurIPS. Hubo preocupaciones sobre el nombre anterior NIPS debido a insultos raciales y sexismo.
Eso marcó el comienzo de un largo intercambio entre Domingos y Anima Anandkumar, profesora de Caltech y directora de investigación de aprendizaje automático en NVIDIA que dirigió una petición para cambiar el nombre de la conferencia. La pornografía surgió en una discusión sobre los resultados de búsqueda en la web para el término «nips», lo que provocó una respuesta de Katherine Heller, presidenta de diversidad e inclusión de NeurIPS 2020, y Ken Anderson, presidente del departamento de informática de la Universidad de Colorado.
Entonces, ¿obtienes sitios de pornografía y yo no? Debe ser el algoritmo de personalización de Google.
¡Hola! Esto me fue señalado como una conversación inapropiada, que le pediré que detenga. Los sitios pornográficos estuvieron asociados con el nombre antiguo durante años y negarlo daña más a los miembros de nuestra comunidad. Ahora hemos avanzado. Gracias.
Como profesora y directora de un departamento de informática en una universidad pública, encuentro este comportamiento inaceptable, al igual que muchos de mis colegas . Los departamentos de informática deben continuar nuestro trabajo de ampliar la participación en la informática para estar unidos en la oposición a este comportamiento.
A partir del martes, el Twitter de Anandkumar ya no estaba activo. Ella se negó a comentar para esta historia.
NeurIPS publicó una declaración sobre ética, equidad, inclusión y código de conducta en su página de inicio. Nos comunicamos con la conferencia para hacer comentarios.
“Habiendo observado las discusiones recientes que tienen lugar en las redes sociales, sentimos la necesidad de reiterar que, como comunidad, debemos ser conscientes del impacto que las declaraciones y acciones tienen en nuestros compañeros y las generaciones futuras de estudiantes e investigadores de IA / ML ”, se lee. “Depende de NeurIPS y de la comunidad de AI / ML en su conjunto fomentar un entorno colaborativo y acogedor para todos. Por lo tanto, las declaraciones y acciones contrarias a la misión de NeurIPS y su Código de Conducta no pueden y no serán toleradas ”.
La charla de Twitter también profundizó en la reciente partida de Gebru, una de las principales investigadoras de ética de inteligencia artificial en Google, y si era despedido por la empresa o dimitido tras una controversia relacionada con un documento de ética de IA. Domingos tuiteó que Gebru «estaba creando un ambiente tóxico dentro de Google AI» y dijo que no fue despedida, a pesar de que Gebru dijo lo contrario .
Yo tenía léelo, y me interesan los hechos. Tú, por otro lado, pareces estar más interesado en insultar a la gente, lo cual es perfecto para un investigador de ética.
Cuando la persona que insulta a la gente acusa la gente a la que está insultando actualmente por insultar a la gente … mucha gente ha estado aprendiendo sobre la frase gaslighting recientemente y continúas educándonos más sobre ella.
Más tarde esa noche, la Escuela Allen de Ingeniería y Ciencias de la Computación de la Universidad de Washington emitió una larga declaración a través de Twitter . El liderazgo de la escuela se opuso a que Domingos «se involucrara en una guerra de llamas en Twitter menospreciando a las personas y minimizando las preocupaciones válidas sobre la ética en la IA», y por su uso de la palabra «trastornado». Aquí está la declaración completa:
El liderazgo de #UWAllen está al tanto de las “discusiones” recientes que involucran a Pedro Domingos, un profesor emérito (jubilado) en nuestra escuela. No toleramos que un miembro de nuestra comunidad participe en una guerra de llamas en Twitter menospreciando a las personas y minimizando preocupaciones válidas sobre la ética en la IA. Nos oponemos a su rechazo de las preocupaciones sobre el uso de la tecnología para marginar aún más a los grupos mal atendidos por la tecnología. Si bien el potencial de daño no niega necesariamente el valor de una línea de investigación determinada, ninguno de nosotros debería quedar exento de considerar ese impacto. Y aunque podemos estar en desacuerdo sobre los enfoques para contrarrestar ese daño potencial, deberíamos apoyar la prueba de diferentes métodos para hacerlo.
También objetamos en los términos más enérgicos posibles el uso de etiquetas como «trastornado». Ese lenguaje es inaceptable. Instamos a todos los miembros de nuestra comunidad a que siempre expresen sus puntos de vista de la manera más respetuosa y colegiada.
Alentamos a nuestros académicos a participar enérgicamente en cuestiones de ética de la IA, diversidad en la tecnología y relaciones entre la industria y la investigación. Todos son cruciales para nuestro campo y nuestro mundo. Pero todos estamos muy familiarizados con los argumentos contraproducentes, incendiarios y en aumento de las redes sociales. Le hemos pedido a Pedro que deje en claro que tuitea como individuo, no en representación de la Escuela Allen o la Universidad de Washington. Además, argumentaríamos que todo este modo de discurso es perjudicial e impropio.
La Escuela Allen está comprometida a abordar la ética y la equidad de la IA de manera concreta. Ese trabajo está en curso y muchas de nuestras actividades se enumeran en nuestro sitio web.
Un componente clave es ampliar la inclusión de la ética en nuestro plan de estudios y preparar a los estudiantes para considerar el impacto muy real que la tecnología puede tener, especialmente en las comunidades marginadas .
En los últimos años, hemos agregado varias clases sobre este tema tanto a nivel de posgrado como de pregrado, y planeamos continuar trabajando para expandir ese aspecto de nuestro plan de estudios.
Como escuela, hemos establecido nuestra compromiso de ser más inclusivos y considerar el impacto de nuestro trabajo en las personas y las comunidades. No seremos disuadidos, por detractores dentro o fuera de nuestra comunidad, de poner el arduo trabajo requerido para lograr esos objetivos.
Firmado, Miembros de Allen School Leadership Magdalena Balazinska, Prof. y Director Dan Grossman, Prof. y Vice Director Tadayoshi Kohno, Prof. y Director Asociado de Diversidad, Equidad e Inclusión Ed Lazowska, Prof. y Director Asociado de Desarrollo y Difusión
Domingos describió el La respuesta de la escuela fue “acobardarse ante la mafia de Twitter”.
Un sincero agradecimiento a todos los que han expresado su apoyo por tweet, correo electrónico y voz. El hecho de que mi departamento se acobardara ante la mafia de Twitter fue tan cobarde y con los ojos cerrados como cabría esperar, pero es alentador ver a tanta gente que todavía puede pensar. ¡Sigan luchando!
Seguimos con Magdalena Balazinska, una reconocida investigadora y educadora que asumió como directora de Allen School el año pasado. Esto es lo que tenía que decir sobre el asunto:
“Como líder de la Escuela Allen, una de mis más altas prioridades es promover una cultura y un ambiente que sea diverso, equitativo e inclusivo. También me preocupa profundamente un entorno en el que las personas discutan temas, incluso los potencialmente controvertidos, abiertamente, con empatía y sin intimidación. Ser testigo de lo que sucedió en Twitter la semana pasada fue desalentador. Necesitamos encontrar formas de unirnos. Toda la industria de la tecnología debería trabajar hacia todos estos objetivos, y tenemos mucho trabajo por hacer ”.
Ed Lazowska, líder de la Escuela Allen desde hace mucho tiempo, dijo que el departamento está comprometido con la libertad académica y la libertad de expresión.
Magdalena Balazinska, directora de la Escuela de Informática e Ingeniería Paul G. Allen de la Universidad de Washington. (UW Photo)
“Alentamos el diálogo de buena fe, incluso sobre temas controvertidos”, dijo. “Pero esperamos que los miembros de nuestra comunidad participen en ese diálogo de una manera respetuosa, colegiada y constructiva que esté libre de ataques personales y no desdeñe las experiencias vividas por las personas. Pedro no cumplió con esos estándares y nos sentimos obligados a dejar en claro dónde estamos ”.
Lazowska agregó:“ Pedro tiene derecho a tuitear. Sentimos que era importante distanciar a la escuela de sus puntos de vista ”.
En un intercambio de correo electrónico con GeekWire, Domingos dijo que la Escuela Allen debería haber“ defendido mi derecho a expresar mis opiniones y respaldarme en mis esfuerzos por liberar la comunidad de aprendizaje automático del miasma que desciende sobre él «.
» En cambio, optaron por rendir homenaje a la multitud ultraizquierdista, como lo han hecho antes «, dijo Domingos, refiriéndose a Stuart Reges, otro profesor de informática de la Universidad de Washington que fue criticado por su ensayo de 2018 que afirmaba que las mujeres están subrepresentadas en la ingeniería de software debido a preferencias personales, no porque las barreras institucionales las disuadan de seguir carreras en tecnología.
Reges le dijo a GeekWire que estaba decepcionado de que la Escuela Allen “haya puesto a Pedro bajo el bus ”.
“ Ha planteado preguntas importantes sobre el activismo que rodea a la salida de Timnit Gebru de Google y los nuevos esfuerzos para inyectar revisiones éticas en todos los aspectos de la investigación de IA ”, dijo Reges. «El mayor pecado que ha cometido ha sido referirse a 'activistas trastornados'. La reacción unificada de la mafia para tratar de cancelarlo demuestra que sus oponentes y el liderazgo de la Escuela Allen no están dispuestos a entablar un diálogo significativo para explorar los problemas». [19659003] Domingos dijo que la disputa de Twitter destaca cómo la comunidad de aprendizaje automático está siendo «progresivamente estrangulada por la corrección política y la política de extrema izquierda».
«El problema más grande es que la academia y la industria tecnológica, no solo el aprendizaje automático, son ser estrangulado por una multitud que se niega a permitir el libre intercambio de ideas de las que depende la investigación y está imponiendo con éxito una ortodoxia cada vez más de extrema izquierda ”, dijo a GeekWire. “La gente vive con miedo de sus ataques”.
Si ha sido el blanco de la multitud de cancelaciones, no se esconda de la vergüenza. Grítalo a los cuatro vientos. Trae vergüenza y oprobio sobre ellos. Así es como terminamos esto.
Daniel Lowd profesor asociado de la Universidad de Oregón que obtuvo su doctorado en la Universidad de Washington en 2010, tuiteó que «quisiera desautorizar públicamente y distanciarme de estos comentarios de mi asesor y colaborador de doctorado».
Me gustaría desautorizar y distanciarme públicamente de estos comentarios de mi asesor y colaborador de doctorado.
Tengo Trabajé con Pedro en varios proyectos y respeto su visión en algunas áreas, pero su retórica aquí es falsa y dañina. https://t.co/Lk3f0F0s6S
Yo también estoy triste, Pedro. Pensé que tenía un colega que respetaba a las personas con diferentes experiencias y puntos de vista, que escuchaba la evidencia y consideraba cuándo podía estar equivocado, que argumentaba de buena fe. Y estaba equivocado.
Simpatizo, y ahora entiendo mejor de dónde viene. Por supuesto que respeto su humanidad. Pero, punto crucial, eso no justifica la cultura de la cancelación.
La reacción al tweet original de Domingos sobre las revisiones éticas de los artículos de IA también refleja la El apremiante dilema de la ética de la IA a medida que la tecnología se infiltra cada vez más en la vida cotidiana.
Considerar el impacto ético de la investigación de la IA es «absolutamente esencial», dijo Oren Etzioni, profesor emérito de informática de la Universidad de Washington (jubilado) que ahora es director ejecutivo del Instituto Allen de Seattle
«Dicho esto, es difícil discutir con las observaciones de Pedro sobre los ataques en línea y la negativa a permitir el libre intercambio de ideas», dijo Etzioni, quien señaló que estaba hablando con GeekWire como individuo y no como representante de cualquier institución
Nathan Colaner, instructor senior de la Universidad de Seattle. (Seattle U Photo)
Etzioni mencionó una plataforma que lanzó su padre, llamada Civil Dialogues, que fomenta la deliberación sobre cuestiones urgentes. También señaló su «juramento hipocrático» creado en 2018 como una forma de alentar a los desarrolladores de software de inteligencia artificial a recordar su carga ética.
Cuando se le preguntó sobre los comentarios de Domingos en Twitter, el instructor senior de la Universidad de Seattle y experto en ética de inteligencia artificial, Nathan Colaner, dijo «parece que su actitud subyacente es que las preocupaciones éticas en la IA son exageradas y que los especialistas en ética están dando demasiada importancia a sus preocupaciones, específicamente cuando se trata de sesgos algorítmicos ”.
“ Creo que esa es la actitud incorrecta ”, dijo Colaner. “En primer lugar, no existe un debate legítimo sobre si los algoritmos son 'neutrales'. Ahora también está claro que la IA no eliminará el sesgo humano, como solíamos escuchar a veces. Pero lo que aún no está claro es si el sesgo humano es un problema peor o menos grave que el sesgo algorítmico ”.
Colaner dijo que hay muchas preguntas sin respuesta que necesitan respuesta a medida que la innovación de la IA continúa a un ritmo rápido. La comunidad de ética de la IA está «básicamente luchando», dijo, y agregó que apoya la declaración de la Escuela Allen. Colaner es director gerente de la Iniciativa en Ética y Tecnologías Transformativas, un instituto en Seattle U que fue posible gracias a una donación de Microsoft.
«El debate saludable agudiza las mentes de todos», dijo Colaner, «pero desde que nosotros en la comunidad de ética de la IA hemos trabajo serio y urgente, la distracción no es útil, por eso Twitter creó el botón 'dejar de seguir' ”.
Deja una respuesta