En lugar del sentimiento de la IA, concéntrese en los riesgos actuales de los grandes modelos de lenguaje
[ad_1]
Estamos entusiasmados de traer de vuelta Rework 2022 en persona el 19 de julio y virtualmente del 20 al 28 de julio. Únase a los líderes de inteligencia synthetic y datos para charlas perspicaces y oportunidades emocionantes para establecer contactos. Regístrese hoy!
Recientemente, el ingeniero de Google hizo titulares internacionales cuando afirmó que LaMDA, su sistema para construir chatbots, period smart. Desde su puesto inicial, debate publico se ha enfurecido sobre si inteligencia synthetic (AI) exhibe conciencia y experiencias tan agudas como los humanos.
Si bien el tema es sin duda fascinante, también eclipsa otros riesgos más apremiantes, como la injusticia y la pérdida de privacidad que plantean los modelos lingüísticos a gran escala (LLM), especialmente para las empresas que compiten por integrar estos modelos en sus productos y servicios. Estos riesgos se amplifican aún más por el hecho de que las empresas que implementan estos modelos a menudo carecen de información sobre los datos y métodos específicos utilizados para crearlos, lo que puede generar problemas de sesgo, discurso de odio y estereotipos.
¿Qué son los LLM?
Los LLM son redes neuronales masivas que aprenden de grandes corpus de texto libre (piense en libros, Wikipedia, Reddit y similares). Aunque están diseñados para generar texto, como resumir documentos largos o responder preguntas, se ha descubierto que sobresalen en una variedad de otras tareas, desde generar sitios internet para recetar medicamentos a la aritmética básica.
Es esta capacidad de generalizar tareas para las que no fueron diseñados originalmente lo que ha impulsado a los LLM a convertirse en un área importante de investigación. La comercialización se está produciendo en todas las industrias mediante la adaptación de modelos básicos construidos y capacitados por otros (por ejemplo, OpenAI, Google, Microsoft y otras empresas de tecnología) para tareas específicas.
Investigadores de Stanford acuñó el término «modelos fundamentales» para caracterizar el hecho de que estos modelos preentrenados subyacen a innumerables otras aplicaciones. Desafortunadamente, estos modelos masivos también traen consigo riesgos sustanciales.
La desventaja de los LLM
El principal de esos riesgos: el costo ambiental, que puede ser masivo. Un artículo bien citado de 2019 descubrió que entrenar un solo modelo grande puede producir tanto carbono como cinco autos durante su vida útil, y los modelos solo se han vuelto más grandes desde entonces. Este costo ambiental tiene implicaciones directas sobre qué tan bien una empresa puede cumplir con sus compromisos de sostenibilidad y, en términos más generales, su ASG objetivos Incluso cuando las empresas confían en modelos entrenados por otros, la huella de carbono de entrenar esos modelos no se puede ignorar, de acuerdo con la forma en que una empresa debe rastrear las emisiones en toda su cadena de suministro.
Luego está el tema del sesgo. Las fuentes de datos de Web comúnmente utilizadas para entrenar estos modelos han sido se encontró que contiene sesgo hacia una serie de grupos, incluidas las personas con discapacidad y las mujeres. También sobre-representan a los usuarios más jóvenes de los países desarrollados, perpetuando esa visión del mundo y reducir el impacto de las poblaciones subrepresentadas.
Esto tiene un impacto directo en los compromisos de DEI de las empresas. Sus sistemas de IA podrían continuar perpetuando sesgos incluso mientras se esfuerzan por corregir esos sesgos en otras partes de sus operaciones, como en sus prácticas de contratación. También pueden crear aplicaciones orientadas al cliente que no produzcan resultados consistentes o confiables a través de geografías, edades u otros subgrupos de clientes.
Los LLM también pueden tener resultados impredecibles y aterradores que pueden representar peligros reales. Tomemos, por ejemplo, al artista que usó un LLM para recrear a su amigo imaginario de la infancia, solo para que su amigo imaginario le pidiera que lo hiciera. meter la cabeza en el microondas. Si bien este puede ser un ejemplo extremo, las empresas no pueden ignorar estos riesgos, particularmente en los casos en que los LLM se aplican en áreas inherentemente de alto riesgo. como el cuidado de la salud.
Estos riesgos se amplifican aún más por el hecho de que puede haber una falta de transparencia en todos los ingredientes que intervienen en la creación de un sistema de IA moderno y de grado de producción. Estos pueden incluir canalizaciones de datos, inventarios de modelos, métricas de optimización y opciones de diseño más amplias en la interacción de los sistemas con los humanos. Las empresas no deben integrar ciegamente modelos previamente entrenados en sus productos y servicios sin considerar cuidadosamente su uso previsto, los datos de origen y la miríada de otras consideraciones que conducen a los riesgos descritos anteriormente.
La promesa de los LLM es emocionante y, en las circunstancias adecuadas, pueden ofrecer resultados comerciales impresionantes. Sin embargo, la búsqueda de estos beneficios no puede significar ignorar los riesgos que pueden generar daños a los clientes y a la sociedad, litigios, infracciones regulatorias y otras implicaciones corporativas.
La promesa de una IA responsable
En términos más generales, las empresas que buscan IA deben implementar un programa de IA responsable (RAI) para garantizar que sus sistemas de IA sean consistentes con sus valores corporativos. Esto comienza con una estrategia common que incluye principios, taxonomías de riesgo y una definición del apetito de riesgo específico de la IA.
También es importante en un programa de este tipo establecer la gobernanza y los procesos para identificar y mitigar los riesgos. Esto incluye responsabilidad clara, escalamiento y supervisión, e integración directa en funciones de riesgo corporativo más amplias.
Al mismo tiempo, los empleados deben contar con mecanismos para plantear inquietudes éticas sin temor a represalias, que luego se evalúan de manera clara y transparente. Un cambio cultural que alinee este programa RAI con la misión y los valores de la organización aumenta las posibilidades de éxito. Finalmente, los procesos clave para el desarrollo de productos (KPI, monitoreo y controles de cartera, y dirección y diseño de programas) también pueden aumentar la probabilidad de éxito.
Mientras tanto, es importante desarrollar procesos para incorporar la experiencia responsable de IA en el desarrollo de productos. Esto incluye un proceso estructurado de evaluación de riesgos en el que los equipos identifican a todas las partes interesadas relevantes, consideran los impactos de segundo y tercer orden que podrían ocurrir inadvertidamente y desarrollan planes de mitigación.
Dada la naturaleza sociotécnica de muchos de estos problemas, también es importante integrar a los expertos de RAI en los esfuerzos inherentemente de alto riesgo para ayudar con este proceso. Los equipos también necesitan nuevas tecnologías, herramientas y marcos para acelerar su trabajo y, al mismo tiempo, permitirles implementar soluciones de manera responsable. Esto incluye kits de herramientas de software program, guías para el desarrollo responsable y plantillas de documentación para permitir la auditoría y la transparencia.
Liderando con RAI desde arriba
Los líderes empresariales deben estar preparados para comunicar su compromiso y procesos RAI interna y externamente. Por ejemplo, desarrollar un código de conducta de IA que vaya más allá de los principios de alto nivel para articular su enfoque de IA responsable.
Además de prevenir daños inadvertidos a los clientes y, más ampliamente, a la sociedad en common, la RAI puede ser una fuente actual de valor para las empresas. Líderes de IA responsables reporte mayor retención de clientes, diferenciación en el mercado, innovación acelerada y mejor reclutamiento y retención de empleados. La comunicación externa sobre los esfuerzos de RAI de la empresa ayuda a crear la transparencia necesaria para elevar la confianza del cliente y obtener estos beneficios.
Los LLM son herramientas poderosas que son preparado para crear un impacto comercial increíble. Desafortunadamente, también conllevan riesgos reales que deben identificarse y gestionarse. Con los pasos correctos, los líderes corporativos pueden equilibrar los beneficios y las ventajas para generar un impacto transformador y minimizar los riesgos para los clientes, los empleados y la sociedad. Sin embargo, no debemos permitir que la discusión sobre la IA smart se convierta en una distracción que nos impida centrarnos en estos temas importantes y actuales.
Steven Mills es el director de ética de la IA y Abhishek Gupta es el líder y experto responsable principal de la IA. en BCG.
Tomadores de decisiones de datos
¡Bienvenido a la comunidad VentureBeat!
DataDecisionMakers es donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir información e innovación relacionadas con los datos.
Si desea leer sobre concepts de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.
Incluso podrías considerar contribuyendo con un artículo ¡tuyo!
[ad_2]