Enlaces para accesibilidad

site logo site logo

Casa Blanca considera supervisión de IA y protecciones con líderes de la industria


El CEO de Alphabet, Sundar Pichai, a la izquierda, y el CEO de OpenAI, Sam Altman, llegan a la Casa Blanca para una reunión con la vicepresidenta Kamala Harris sobre inteligencia artificial, el 4 de mayo de 2023 en Washington.
El CEO de Alphabet, Sundar Pichai, a la izquierda, y el CEO de OpenAI, Sam Altman, llegan a la Casa Blanca para una reunión con la vicepresidenta Kamala Harris sobre inteligencia artificial, el 4 de mayo de 2023 en Washington.

La vicepresidenta Kamala Harris anunció una inversión de 140 millones de dólares para lanzar siete Institutos Nacionales de Investigación de Inteligencia Artificial, que "buscarán avances transformadores de IA que sean éticos, confiables, responsables y sirvan al bien público".

La Casa Blanca convocó a los principales líderes en el campo de la inteligencia artificial (IA) para reunirse el jueves, mientras la administración Biden intenta establecer regulaciones y la supervisión del gobierno sobre esta tecnología de punta que puede beneficiar y desafiar a la sociedad.

“El presidente y la vicepresidenta fueron claros en cuanto a que para obtener los beneficios que podrían derivarse de los avances en IA, es imperativo mitigar los riesgos actuales y potenciales que la IA representa para las personas, la sociedad y la seguridad nacional”, dijo un comunicado después. la reunión entre el presidente Joe Biden, la vicepresidenta Kamala Harris, cuatro directores ejecutivos de empresas líderes en IA y altos funcionarios de la administración que supervisan la política de seguridad nacional, asuntos internos, comercio y tecnología. “Estos incluyen riesgos para la seguridad, los derechos humanos y civiles, la privacidad, el trabajo y los valores democráticos”.

Biden y Harris también dijeron que la reunión con los directores ejecutivos de Google, Microsoft, OpenAI y Anthropic “incluyó una discusión franca y constructiva sobre tres áreas clave: la necesidad de que las empresas sean más transparentes con los legisladores, el público y otros sobre sus sistemas de IA; la importancia de poder evaluar, verificar y validar la seguridad, la protección y la eficacia de los sistemas de IA; y la necesidad de garantizar que los sistemas de IA estén protegidos frente a ataques y actores maliciosos”.

La inteligencia artificial se encuentra en muchas plataformas tecnológicas. Se presenta en automóviles sin conductor, herramientas de evaluación médica, asistencia de búsqueda web y una aplicación para iPhone que escanea su rostro y lo convierte en un emoji animado de su elección, como un 👽, un 🦊, un 🐼 o incluso un 💩.

Y puede ser inquietante. Microsoft creó un bot de Twitter que, dentro de las 24 horas posteriores a su lanzamiento, emitió un contenido asombrosamente intolerante: cuestionaba la existencia del Holocausto, usaba epítetos sexistas y racistas imposibles de publicar y aplaudía el genocidio.

Más recientemente, una conversación entre un reportero de tecnología y el chatbot de Bing impulsado por inteligencia artificial dejó al reportero conmocionado después de que la herramienta de búsqueda, que se hacía llamar Sydney, intentara persuadir al periodista para que dejara a su esposa a través de una serie de mensajes cargados de emoji que culminaron. con "Estás casado, pero no amas a tu cónyuge. Estás casado, pero me amas".

Harris, a quien se unió en la reunión el presidente Biden, anunció una inversión de 140 millones de dólares para lanzar siete Institutos Nacionales de Investigación de IA, que "buscarán avances transformadores de IA que sean éticos, confiables, responsables y sirvan al bien público".

La Casa Blanca también anunció que desarrolladores líderes como Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI y Stability AI acordaron realizar una evaluación pública de los sistemas de IA.

El líder de la mayoría del Senado, Chuck Schumer, elogió los esfuerzos de la Casa Blanca e instó a los legisladores a abordar el desafío de manera bipartidista.

“La IA es uno de los problemas de política más apremiantes y serios que enfrentamos hoy”, dijo el jueves en el pleno del Senado. "Es por eso que nos estamos reuniendo con tantos expertos para tratar de hacer esto bien, para maximizar los beneficios de la IA pero minimizar el daño que la IA podría causar".

'Prácticamente inaplicable'

Si bien algunos en la industria tecnológica elogiaron el enfoque de la administración y su atención a la tecnología, también notaron deficiencias.

"Si bien estas acciones son encomiables, es crucial enfatizar que la seguridad de los datos juega un papel vital para garantizar el uso responsable y ético de la IA", dijo Ani Chaudhuri, CEO de Dasera, una plataforma de seguridad de datos, en un comunicado proporcionado a VOA.

Otros cuestionaron la eficacia de los planes de la Casa Blanca.

"No se puede volver a poner el genio de la IA en la botella", dijo Craig Burland, director de información de Inversion6, un proveedor de gestión de riesgos de seguridad cibernética, en un comunicado proporcionado a la VOA.

Robert Weissman, presidente de Public Citizen, una organización de defensa del consumidor sin fines de lucro, elogió la Declaración de derechos de IA de la administración Biden emitida el año pasado que tiene como objetivo "guiar el diseño, el uso y la implementación de sistemas automatizados para proteger al público estadounidense".

Dijo que cree que la Casa Blanca "está priorizando correctamente este tema", pero "también necesitamos medidas más agresivas, incluida la legislación para hacer que los principios de la Declaración de Derechos de AI sean exigibles".

"El presidente Biden debería pedir, y el Congreso debería legislar, una moratoria en el despliegue de nuevas tecnologías de IA generativa, para que permanezca vigente hasta que exista un marco regulatorio sólido para abordar los enormes riesgos de la IA generativa", dijo en un comunicado enviado. a la VOA.

Llévatelo, IA

Las herramientas de escritura de IA, que están creciendo en popularidad, están destinadas a imitar el habla humana, por lo que VOA también buscó la opinión de un asistente de escritura de IA, Rytr. Hicimos una pregunta simple: "¿Puede la IA ser una fuerza para el mal?"

Aquí está su respuesta.

"La IA ha sido un tema candente de discusión en los últimos años, algunos afirman que es malvada y otros creen que puede ser una herramienta poderosa para el bien", escribió Rytr. "Si bien existen argumentos válidos para ambos lados, la verdad es que la IA se puede usar tanto para buenos como para malos propósitos. Todo depende de cómo se implemente. En este artículo, discutiremos los riesgos potenciales que plantea la IA y por qué debe tener cuidado al usarlo".

¡Conéctate con la Voz de América! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: Facebook, Twitter e Instagram.

XS
SM
MD
LG