banner
Centro de Noticias
Precios inmejorables para productos de calidad excepcional.

Washington puede detener la IA gratis

Jun 11, 2023

Cinco maneras para que Washington responsabilice a Silicon Valley

En abril, los abogados de la aerolínea Avianca notaron algo extraño. Un pasajero, Robert Mata, había demandado a la aerolínea, alegando que un carrito de servicio en un vuelo le había golpeado y herido gravemente la rodilla izquierda, pero varios casos citados en la demanda de Mata no parecían existir. El juez tampoco pudo verificarlos. Resultó que ChatGPT los había inventado todos, fabricando nombres y decisiones. Uno de los abogados de Mata, Steven A. Schwartz, había utilizado el chatbot como asistente (la primera vez que utilizaba el programa para investigaciones jurídicas) y, como escribió Schwartz en una declaración jurada, “no estaba consciente de la posibilidad de que su contenido pudiera ser falso. "

El incidente fue solo uno de una letanía de casos en los que la IA generativa difundió falsedades, sin mencionar las estafas financieras, la pornografía no consensuada y más. Las empresas de tecnología están comercializando sus productos de inteligencia artificial y potencialmente obteniendo enormes ganancias, con poca responsabilidad o supervisión legal por el daño que esos productos pueden causar en el mundo real. El gobierno federal ahora está tratando de ponerse al día.

A finales del mes pasado, la administración Biden anunció que siete empresas de tecnología a la vanguardia del desarrollo de la IA habían aceptado una serie de compromisos voluntarios para garantizar que sus productos fueran “seguros y dignos de confianza”. Esos compromisos siguen a una serie de cumbres en la Casa Blanca sobre IA, testimonios del Congreso sobre la regulación de la tecnología y declaraciones de varias agencias gubernamentales de que están tomando la IA en serio. En el anuncio, OpenAI, Microsoft, Google, Meta y otros se comprometieron a someter sus productos a pruebas de terceros, invertir en la reducción de sesgos y ser más transparentes sobre las capacidades y limitaciones de sus sistemas de IA.

Leer: Estados Unidos ya tiene una subclase de IA

El lenguaje es prometedor, pero también sólo una promesa, ya que carece de mecanismos de aplicación y detalles sobre los próximos pasos. Regular la IA requiere una burocracia pesada para enfrentarse a empresas notoriamente reservadas y a tecnologías en rápida evolución. Gran parte del lenguaje de la administración Biden imita las líneas de relaciones públicas de las luminarias de la tecnología sobre las capacidades de sus productos para acabar con el mundo, como las armas biológicas y las máquinas que se “autoreplican”. La acción gubernamental será esencial para salvaguardar las vidas y los medios de subsistencia de las personas, no sólo de la supuesta amenaza a largo plazo de máquinas malvadas y superinteligentes, sino también de las amenazas cotidianas. La IA generativa ya ha mostrado sesgos graves y potencial de uso indebido. Y durante más de una década, se han utilizado algoritmos menos avanzados pero igualmente opacos y a menudo discriminatorios para examinar currículos y determinar puntajes crediticios, en software de diagnóstico y como parte de herramientas de reconocimiento facial.

Hablé con varios expertos y salí con una lista de cinco de las formas más efectivas en que el gobierno podría regular la IA para proteger al país contra los riesgos cotidianos de la tecnología, así como sus peligros más hipotéticos y apocalípticos.

1. No confíe en la palabra de las empresas de IA en nada.

Un medicamento anunciado para quimioterapia debe demostrar que beneficia a los pacientes con cáncer en ensayos clínicos, por ejemplo reduciendo los tumores, y luego obtener la aprobación de la FDA. Entonces su fabricante tiene que revelar los efectos secundarios que los pacientes puedan experimentar. Pero no existe tal responsabilidad para los productos de IA. “Las empresas afirman que la IA es capaz de hacer X o Y cosas, pero luego no demuestran que puedan hacerlo”, me dijo Sarah Myers West, directora general del AI Now Institute y ex asesora principal de la FTC en IA. Numerosas empresas de tecnología han sido criticadas por tergiversar cuán sesgados o efectivos son sus algoritmos, o por no proporcionar casi ninguna evidencia para evaluarlos.

Exigir que las herramientas de inteligencia artificial se sometan a pruebas de terceros para garantizar que cumplan con las métricas acordadas de sesgo, precisión e interpretabilidad "es un primer paso realmente importante", dijo Alexandra Givens, presidenta del Centro para la Democracia y la Tecnología, una organización sin fines de lucro que "Defiende la privacidad y los derechos humanos en Internet y recibe algunos fondos de la industria tecnológica", me dijo. Las empresas podrían verse obligadas a revelar información sobre cómo se entrenaron sus programas, las limitaciones del software y cómo mitigaron los posibles daños. “En este momento existe una extraordinaria asimetría de información”, afirmó: las empresas tecnológicas tienden a revelar muy poco sobre cómo entrenan y validan su software. Una auditoría podría implicar probar con qué frecuencia, digamos, un programa de visión por computadora reconoce erróneamente rostros negros versus blancos o si los chatbots asocian ciertos trabajos con roles de género estereotipados (ChatGPT una vez afirmó que los abogados no pueden estar embarazadas, porque los abogados deben ser hombres).

Todos los expertos con los que hablé coincidieron en que las propias empresas de tecnología no deberían poder declarar seguros sus propios productos. De lo contrario, existe un riesgo sustancial de “lavado de auditoría”, en el que un producto peligroso gana legitimidad a partir de un sello de aprobación sin sentido, me dijo Ellen Goodman, profesora de derecho en Rutgers. Aunque actualmente numerosas propuestas exigen auditorías a posteriori, otras han pedido que las evaluaciones de seguridad comiencen mucho antes. Las aplicaciones potencialmente de alto riesgo de la IA significan que estas empresas deberían “demostrar que sus productos no son dañinos antes de poder lanzarlos al mercado”, me dijo Safiya Noble, investigadora de estudios de Internet en la UCLA.

Los puntos de referencia y las licencias claros también son cruciales: una norma gubernamental no sería efectiva si se diluyera, y una mezcolanza de etiquetas de seguridad generaría confusión hasta el punto de ser ilegible, similar a las diferencias entre animales criados en libertad, libres de jaulas y pastos. -huevos criados.

2. No necesitamos un Departamento de IA.

Establecer evaluaciones básicas y divulgaciones sobre los sistemas de IA no requeriría una nueva agencia gubernamental, aunque eso es lo que algunos ejecutivos de tecnología han pedido. Las leyes existentes se aplican a muchos usos de la IA: robots de terapia, asistentes financieros automatizados, motores de búsqueda que prometen respuestas veraces. A su vez, las agencias federales pertinentes tienen la experiencia en la materia para hacer cumplir esas leyes; por ejemplo, la FDA podría tener que evaluar y aprobar un robot de terapia como si fuera un dispositivo médico. "Al nombrar una agencia central de IA que hará todas las cosas, se pierde el aspecto más importante de la evaluación algorítmica", dijo Givens, "que es, cuál es el contexto en el que se está implementando y cuál es el impacto en ¿Ese conjunto particular de comunidades?”

Leer: El doomerismo de la IA es un señuelo

Un nuevo departamento de IA podría correr el riesgo de crear una captura regulatoria, y las principales empresas de IA dotarían de personal, asesorarían y ejercerían presión sobre la agencia. En cambio, me dijeron los expertos, les gustaría ver más fondos para que las agencias existentes contraten personal y desarrollen experiencia en IA, lo que podría requerir la acción del Congreso. "Podría haber una forma muy agresiva en la que las agencias de aplicación de la ley existentes podrían tener más poder para hacer esto si se les proporcionaran más recursos", me dijo Alex Hanna, director de investigación del Distributed AI Research Institute.

3. La Casa Blanca puede predicar con el ejemplo.

Una legislación de gran alcance para regular la IA podría llevar años y enfrentar desafíos por parte de las empresas de tecnología en los tribunales. Otro enfoque, posiblemente más rápido, podría implicar que el gobierno federal dé el ejemplo en los modelos de IA que utiliza, la investigación que apoya y los fondos que desembolsa. Por ejemplo, a principios de este año, un grupo de trabajo federal recomendó que el gobierno comprometiera 2.600 millones de dólares para financiar la investigación y el desarrollo de la IA. Cualquier empresa que desee acceder a esos recursos podría verse obligada a cumplir una serie de estándares, lo que podría conducir a su adopción en toda la industria, algo similar a los incentivos fiscales y subsidios que fomentan la energía verde en la Ley de Reducción de la Inflación.

El gobierno también es un importante comprador y usuario de IA, y podría exigir a sus proveedores que se sometan a auditorías y publiquen informes de transparencia. “Lo más importante que puede hacer la administración Biden es convertir en política administrativa vinculante que la IA sólo pueda comprarse, desarrollarse y usarse si pasa por pruebas significativas de seguridad, eficacia, no discriminación y protección de la privacidad de las personas”, me dijo Givens.

4. La IA necesita un sello a prueba de manipulaciones.

Los deepfakes y otros medios sintéticos (imágenes, videos y clips de audio que un sistema de inteligencia artificial puede generar en segundos) ya han difundido información errónea y se han utilizado en pornografía no consensuada. Los compromisos voluntarios del mes pasado incluyen el desarrollo de una marca de agua para informar a los usuarios que están interactuando con contenido generado por IA, pero el lenguaje es vago y el camino a seguir no está claro. Muchos métodos existentes de marcas de agua, como el bloque de píxeles del arco iris en la parte inferior de cualquier imagen generada por DALL-E 2, son fáciles de manipular o eliminar. Un método más sólido implicaría registrar dónde, cuándo y cómo se creó un medio (como un sello digital de una cámara), así como cada edición a la que se somete. Empresas como Adobe, Microsoft y Sony ya están trabajando para implementar uno de esos estándares, aunque estos enfoques pueden resultar difíciles de entender para el público.

Sam Gregory, director ejecutivo de la organización de derechos humanos Witness, me dijo que todos, desde los fabricantes de modelos de texto a imagen hasta las aplicaciones y desarrolladores de navegadores web. Necesitamos un sello a prueba de manipulaciones, no una pegatina.

Leer: Es hora de volver a preocuparse por los deepfakes

Para fomentar la adopción de una forma estándar de denotar el contenido de IA, me dijo Goodman, el gobierno podría exigir que los navegadores web, las computadoras y otros dispositivos reconozcan la etiqueta. Tal mandato sería similar al requisito federal de que los nuevos televisores incluyan una parte, conocida como “V-chip”, que reconoce los índices de madurez establecidos por la industria televisiva, que los padres pueden utilizar para bloquear programas.

5. Crear formas para que las personas protejan su trabajo de la IA.

Actualmente, múltiples demandas de alto perfil acusan a los modelos de inteligencia artificial, como ChatGPT y el generador de imágenes Midjourney, de robar el trabajo de escritores y artistas. La propiedad intelectual se ha vuelto central en los debates sobre la IA generativa, y están en juego dos tipos generales de infracción de derechos de autor: las imágenes, el texto y otros datos con los que se entrenan los modelos, y las imágenes y el texto que escupen.

En lo que respecta a los insumos, las acusaciones de que los modelos de IA generativa están violando la ley de derechos de autor pueden fracasar en los tribunales, me dijo Daniel Gervais, profesor de derecho en Vanderbilt. Hacer copias de imágenes, artículos, videos y otros medios en línea para desarrollar un conjunto de datos de entrenamiento probablemente se incluya en el “uso legítimo”, porque entrenar un modelo de IA en el material lo transforma significativamente. El estándar para demostrar violaciones de derechos de autor en el lado de los resultados también puede plantear dificultades, porque demostrar que un resultado de IA es similar a una obra específica protegida por derechos de autor (no sólo en el estilo de Kehinde Wiley, sino en la viva imagen de una de sus pinturas) es una tarea difícil. umbral legal elevado.

Gervais dijo que imagina que un acuerdo negociado en el mercado entre los titulares de derechos y los desarrolladores de IA llegará antes que cualquier tipo de estándar legal. En la UE, por ejemplo, los artistas y escritores pueden optar por no utilizar su trabajo para entrenar IA, lo que podría incentivar un acuerdo que sea de interés tanto para los artistas como para Silicon Valley. "Los editores ven esto como una fuente de ingresos y las empresas de tecnología han invertido mucho en su tecnología", dijo Gervais. Otra posible opción sería un estándar de aceptación aún más estricto, que requeriría que cualquier persona que posea material protegido por derechos de autor proporcione un permiso explícito para que se utilicen sus datos. En Estados Unidos, dijo Gervais, la opción de excluirse puede ser innecesaria. Una ley aprobada para proteger los derechos de autor en Internet hace que sea ilegal quitarle a un archivo su “información de gestión de derechos de autor”, como etiquetas con el creador de la obra y la fecha de publicación, y muchos observadores alegan que la creación de conjuntos de datos para entrenar IA generativa viola esa ley. . La multa por eliminar dicha información podría ascender a decenas de miles de dólares por obra, e incluso más en el caso de otras infracciones de derechos de autor, un riesgo financiero que, multiplicado quizás por millones de violaciones en un conjunto de datos, podría ser demasiado grande para que lo asuman las empresas.

Pocas de estas pólizas, si es que hay alguna, están garantizadas. Se enfrentan a numerosos obstáculos prácticos, políticos y legales, entre ellos el formidable brazo de lobby de Silicon Valley. Estas regulaciones tampoco serán suficientes por sí solas para detener todas las formas en que la tecnología puede afectar negativamente a los estadounidenses. La IA está plagada de violaciones de la privacidad, prácticas comerciales monopolísticas y maltrato a los trabajadores, todo lo cual ha plagado a la industria tecnológica durante años.

Pero se avecina algún tipo de regulación: la administración Biden ha dicho que está trabajando en una legislación bipartidista y prometió orientación sobre el uso responsable de la IA por parte de las agencias federales antes de finales del verano; Numerosos proyectos de ley están pendientes ante el Congreso. Hasta entonces, es posible que las empresas de tecnología simplemente sigan lanzando productos nuevos y no probados, sin importar quién o qué se vea afectado en el proceso.

1. No confíe en la palabra de las empresas de IA en nada.2. No necesitamos un Departamento de IA.3. La Casa Blanca puede predicar con el ejemplo.4. La IA necesita un sello a prueba de manipulaciones.5. Crear formas para que las personas protejan su trabajo de la IA.