Rob Reich: los desarrolladores de IA necesitan un código de conducta responsable

[ad_1]

Estamos entusiasmados de traer de vuelta Rework 2022 en persona el 19 de julio y virtualmente del 20 al 28 de julio. Únase a los líderes de inteligencia synthetic y datos para charlas perspicaces y oportunidades emocionantes para establecer contactos. Regístrese hoy!


Rob Reich tiene muchas funciones: filósofo político, director de la Centro de la familia McCoy para la ética en la sociedady director asociado de la Instituto de Stanford para la inteligencia synthetic centrada en el ser humano.

En los últimos años, Reich ha profundizado en la cuestiones eticas y politicas que plantean los revolucionarios avances tecnológicos en inteligencia synthetic (IA). Su trabajo no siempre es fácil de escuchar para los tecnólogos. En su libro, Error del sistema: dónde se equivocó la gran tecnología y cómo podemos reiniciarReich sus autores (el informático Mehran Sahami y el científico social Jeremy M. Weinstein) argumentan que las empresas tecnológicas y los desarrolladores están tan obsesionados con la «optimización» que a menudo pisotean los valores humanos.

Más recientemente, Reich argumenta que la comunidad de IA está muy atrasada en el desarrollo robusto normas profesionales. Eso plantea riesgos para una serie de valores democráticos, desde la privacidad y los derechos civiles hasta la protección contra el daño y la explotación.

Habló sobre el importancia de las normas comunitarias en el Conferencia HAI de primavera de 2022 sobre avances clave en IA.

En una entrevista, explicó cómo podría ser este código de conducta profesional y quién debería participar.

La necesidad de madurez en la ética de la IA

Dices que la IA y la informática, en normal, son “inmaduras” en su ética profesional. ¿Qué quieres decir?

Rob Reich: La ciencia de la IA es como un adolescente en etapa avanzada, recién consciente de sus poderes extraordinarios pero sin una corteza frontal completamente desarrollada que pueda guiar su comportamiento arriesgado y llevarlo a considerar sus responsabilidades sociales más amplias. Las ciencias de la computación no surgieron hasta los años 50 y 60, y las personas que tenían títulos en ciencias de la computación solo se volvieron socialmente poderosas en la década de 2000. En comparación con campos más antiguos como la medicina o el derecho, o incluso profesiones comunes que tienen requisitos de licencia, las normas institucionales para la ética profesional en informática son inmaduras desde el punto de vista del desarrollo.

¿De qué tipo de ética y normas carece el campo de la IA?

Reich: Piense en lo que sucedió con un salto tecnológico diferente: CRISPR, la herramienta de edición de genes que ha creado oportunidades transformadoras en campos que van desde la terapéutica hasta la agricultura. Una de sus co-inventoras, Jennifer Doudna, quien compartió un premio Nobel de química, ha contado la historia de despertarse de una pesadilla una noche y preguntarse: ¿Qué pasaría si Hitler tuviera esto? Decidió que los investigadores biomédicos necesitaban poner algunos límites a la técnica y ayudó a convocar a sus colegas investigadores biomédicos y sus respectivas sociedades profesionales. Adoptaron una moratoria sobre el uso de CRISPR para la edición de líneas germinales (en óvulos, espermatozoides o embriones humanos).

Unos años más tarde, cuando el investigador realmente usó CRISPR en embriones humanos, otros científicos lo excluyeron de inmediato y lo retiraron de todas las reuniones profesionales. Ninguna revista publicaría sus artículos. De hecho, el gobierno chino finalmente lo puso en prisión.

¿Puede nombrar a algún científico de IA cuyo modelo de IA los haya expulsado de la práctica respetable de la ciencia de la IA? En mi experiencia, casi nadie puede. Imagina a una persona que desarrolla un modelo de IA que observa tu huella facial y predice la probabilidad de que cometas un delito. Eso me parece el equivalente de frenología y la práctica desacreditada de la ciencia racial. Pero en este momento, mi sensación es que ese trabajo no le costaría nada a una persona en términos de oportunidades profesionales.

La IA no tiene nada comparable con la huella de la ética en la atención médica y la investigación biomédica. Cada hospital tiene un comité de ética. Si desea realizar una investigación biomédica, debe pasar por una junta de revisión institucional. Si juega con un nuevo medicamento en su garaje, no puede simplemente salir y probarlo en personas de su área: la FDA tiene que aprobar los ensayos. Pero si tiene un modelo de IA, puede entrenarlo como quiera, implementarlo como desee e incluso compartir el modelo abiertamente con otros posibles malos actores para que lo usen también.

Las empresas individuales, por supuesto, han desarrollado códigos de conducta corporativos. Pero a menos que las prácticas corporativas se filtren para convertirse en prácticas de toda la industria, o normas profesionales para todos los investigadores responsables, donde sea que trabajen, los estándares de ética corporativa no significan mucho. No cambian si las malas prácticas ocurren en otros lugares y, por lo tanto, la sociedad no está mejor con la estrella dorada adherida a una empresa particular person.

Elaboración de un código de ética de IA

¿Cuáles son los principios de referencia que podrían ser la base de un código de ética o una declaración de derechos de la IA?

Reich: Algunas de las normas de salud y investigación biomédica proporcionar un punto de partida, aunque no creo que uno pueda simplemente exportar dichas normas mayoristas de la medicina a la IA.

Tomemos, por ejemplo, el Juramento Hipocrático: primero, no hagas daño. En IA, los investigadores y desarrolladores podrían tener normas sólidas para comprender las formas en que los modelos algorítmicos pueden tener impactos adversos en los grupos marginados antes de lanzar o implementar cualquier modelo.

Podrían tener normas sobre los derechos de privacidad, basadas en doctrinas de derechos humanos, que limitan la práctica generalizada de extraer datos personales de la Web abierta sin obtener primero el consentimiento.

Podrían desarrollar normas que establezcan límites apropiados sobre cómo se implementan las herramientas de reconocimiento facial en público. En biometría, puede señalar algunos intereses humanos básicos en la vigilancia, ya sea que la realice un dron, una cámara de la policía o un tipo con un teléfono celular.

¿Cuáles son algunas concepts viables para crear una tracción actual para un código de ética?

Reich: En primer lugar, al igual que sucedió con CRISPR, es importante que los científicos de IA más destacados se pronuncien a favor de la ética profesional y un código más amplio de IA responsable. Los científicos de IA de alto nivel son esenciales para el desarrollo de una IA responsable.

En segundo lugar, más allá de las acciones de los individuos, necesitamos un enfoque institucionalmente más sólido. La IA responsable no es solo una cuestión de regulación interna a través de normas profesionales, sino una regulación externa a través de agencias de auditoría algorítmica y organizaciones de la sociedad civil apropiadas que pueden hacer que las empresas rindan cuentas. el trabajo del Liga de la justicia algorítmica es un ejemplo ejemplar de esto último.

No necesariamente necesitamos crear o inventar nuevas agencias. Ya tenemos, por ejemplo, la Comisión de Igualdad de Oportunidades en el Empleo. Si aún no lo están haciendo, deberían ver cómo funcionan algunas de estas herramientas de contratación impulsadas por IA y sistemas de evaluación de currículums.

También podríamos tener algunas juntas de revisión análogas a institucionales que supervisen la investigación con sujetos humanos. Cuando alguien determine raspar imágenes de la internet para identificar tendencias criminales a partir de fotos y huellas faciales me pregunto qué hubiera pasado si hubieran pasado por una junta de revisión institucional. Tal vez hubiera dicho que no. Pero si eres un científico de IA, normalmente no tienes que lidiar con una junta de revisión institucional. Simplemente vete y hazlo.

Nuevamente, ahí es donde las normas institucionales deben ponerse al día con el poder de la IA.

Adición de cheques y saldos

¿Debería exigirse a los desarrolladores que realicen una auditoría en busca de posibles sesgos u otros peligros?

Reich: Por supuesto. Cualquier proyecto de construcción significativo tiene que tener un estudio de impacto ambiental. Si resulta que va a desarrollar un terreno de una manera que amenazará a una especie en peligro de extinción, como mínimo, los desarrolladores deben adoptar estrategias de mitigación antes de seguir adelante. De manera análoga, podría imaginar declaraciones de impacto algorítmico. Tendría que demostrar que existe un riesgo mínimo de sesgo antes de ponerlo en práctica. También hay enfoques técnicos para esto, como el uso de modelo de tarjetas y hojas de datos para conjuntos de datos.

También tenemos que mejorar significativamente el talento que se pone en las agencias de auditoría algorítmica. Mi esperanza es que las carreras técnicas se extiendan más allá de las nuevas empresas y las grandes empresas tecnológicas. Piense en la ley de interés público. ¿Por qué es más competitivo conseguir un trabajo mal pagado en el Departamento de Justicia que un puesto de derecho corporativo? Al menos en parte por la oportunidad de hacer algo por el bien público.

¿Qué se necesitará para establecer el tipo de normas profesionales o comunitarias que imagina?

Reich: Lamentablemente, a menudo se necesitan escándalos como los experimentos médicos de la period nazi o los experimentos de Tuskegee con hombres negros para provocar una reacción significativa de los políticos o de la profesión.

Pero no tiene por qué ser un proceso reactivo. Prefiero que la ciencia de la IA adopte un enfoque proactivo.

Un ejemplo es un publicación de weblog reciente de miembros de la Centro de Investigación de Modelos de Cimentación que pedía el establecimiento de una junta de revisión que establecería normas sobre la publicación responsable de modelos de base.

Otro ejemplo es un proyecto piloto aquí en Stanford HAI que requiere una Revisión de Ética y Sociedad para cualquier proyecto que busque financiamiento de subvenciones. El panel de revisión consiste en un equipo interdisciplinario de expertos en antropología, historia, medicina, filosofía y otros campos. Apenas en diciembre pasado, miembros del equipo publicó un artículo en procedimientos de la Academia Nacional de Ciencias que detalla los hallazgos y cómo la ESR podría aplicarse a otras áreas de investigación en la industria, así como dentro de la academia.

Es un patrón acquainted a lo largo de la historia que el descubrimiento científico y la innovación tecnológica se adelantan a nuestra capacidad colectiva para establecer pautas regulatorias sensatas. en Error del sistemallamamos a esto el carrera entre la disrupción y la democracia. Con la IA, el ritmo de la innovación se ha acelerado y la frontera de la innovación está muy por delante de nuestros marcos de políticas públicas. Eso hace que sea cada vez más importante apoyarse en normas profesionales y códigos de conducta para que el desarrollo y la implementación de nuevas tecnologías en IA se lleven a cabo con responsabilidad social.

Edmund L. Andrews es escritor colaborador del Instituto Stanford para la IA centrada en el ser humano.

Rob Reich es profesor de ciencias políticas en la Escuela de Humanidades y Ciencias de Stanford, y profesor por cortesía de Educación. También es miembro principal, por cortesía, del Instituto Freeman Spogli de Estudios Internacionales y director asociado del Instituto Stanford para la IA centrada en el ser humano.

Esta historia apareció originalmente en Hai.stanford.edu. Derechos de autor 2022

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir información e innovación relacionadas con los datos.

Si desea leer sobre concepts de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

Incluso podrías considerar contribuyendo con un artículo ¡tuyo!

Leer más de DataDecisionMakers

[ad_2]