viernes, 13 diciembre 2024

OpenAI pacta evitar riesgos de la IA y Google despide vigilantes de ‘Gemini’

OpenAI y Google están centrados en el negocio de la IA pero se enfrentan a sus peligros para la humanidad, de los que son más que conscientes, a veces de manera errática y contradictoria. Mientras OpenAI acaba de anunciar un acuerdo con la compañía Salesforce y otras empresas tecnológicas que en una carta abierta adquieren una «responsabilidad colectiva» para «maximizar los beneficios de la IA y mitigar los riesgos» para la sociedad, Google despide empleados de su equipo de seguridad de la IA, y los que se quedan tiene que trabajar hasta 24 horas seguidas para predecir la acción de hackers y evaluar la ingente cantidad de riesgos.

En efecto, Google se ha permitido el lujo de despedir hasta a 10 personas de un equipo de 250 de su equipo de «confianza y seguridad» en un recorte de personal que se intuye será todavía mayor, mientras que está pidiendo a los trabajadores de este grupo especial que estén de guardia durante los fines de semana para «solucionar los problemas que surgen constantemente con su herramienta insignia de IA, Gemini«.

Este equipo dedicado a la ciberseguridad de la IA están dedicados día y noche a poner barreras de seguridad en Gemini, para prevenir ciberataques y otras injerencias de actores maliciosos. También se dedican a evaluar los riesgos y garantizar que la IA de Google sea segura para los usuarios del buscador.

GOOGLE Y LOS ERRORES HISTÓRICOS DE GEMINI

El gigante de Mountain View ha pedido voluntarios entre los miembros del equipo por bloques de tiempo «para que podamos activar pruebas adversas rápidas en temas de alta prioridad», según un correo recibido por los trabajadores. Aunque la empresa ha dicho que los recortes de personal no van a afectar a Gemini, el equipo de «confianza y seguridad» maneja una carga «abrumadora» de trabajo para hacer frente a las imágenes históricas erróneas que la IA de Google ha generado, y que han creado una enorme controversia en todo el mundo.

Las imágenes creadas por Gemini respondían a peticiones de representación gráfica de nazis, vikingos y personajes de la historia por todos conocidos, pero el entrenamiento de la IA para ser inclusiva le llevó a crear estos personajes con rasgos asiáticos y la piel de color negro, entre otros fallo garrafales.

Los recortes de empleo se producen como parte de un plan anterior a esta crisis de gestión de la IA encaminados a ajustar sus resultados y a «apretarse el cinturón». Desde mediados de enero y durante todo febrero, la compañía ha estado reorganizando a los empleados en todos los equipos y no ha indicado cuándo terminaría la reestructuración. Según ha confirmado un portavoz de Google, «estamos invirtiendo responsablemente en las mayores prioridades de nuestra empresa y en las importantes oportunidades que tenemos por delante».

el equipo de «confianza y seguridad» de Gemini maneja una carga «abrumadora» de trabajo para hacer frente a las imágenes históricas erróneas que la IA de Google ha generado, y que han creado una enorme controversia en todo el mundo

Aunque la empresa afirma que la reorganización está encaminada a dar más soporte a los productos relacionados con la IA y su seguridad, los empleados de los equipos responsables de la seguridad y precisión de la herramienta luchan contra la baja moral y una sensación de falta de poder durante el año pasado, a medida que la empresa aceleraba su ritmo de lanzamiento de productos para mantenerse al día frente a rivales como OpenAI.

El mismísimo CEO de Google, Sundar Pichai, ha reconocido a través de un mail que la empresa tiene una «creciente dependencia de los equipos» y que estos están «trabajando las 24 horas del día» para remediar los problemas que los usuarios habían señalado con las respuestas de Gemini, lo que había supuesto una «una mejora sustancial en una amplia gama de indicaciones». Pero aún así, siguen despidiendo gente.

OpenAI pacta evitar riesgos de la IA y Google despide vigilantes de 'Gemini'
Imágenes generadas por Gemini, de Google, con nazis asiáticos y negros, y figuras de la historia de EE.UU también de color.

OPENAI Y LA ÉTICA DE LA IA

Mientras Google anda perdida por no perder el ciclón de la IA y mantenerla segura, aunque sea a base de que su trabajadores doblen turnos, OpenAI se compromete en una carta abierta firmada junto a la empresa de software basado en la nube Salesforce y Hugging Face, Scale AI y docenas de otras nuevas empresas de tecnología, a «maximizar los beneficios de la IA y mitigar los riesgos» para la sociedad, en el enésimo y último esfuerzo de la industria tecnológica para pedir que se desarrolle inteligencia artificial de manera responsable.

El CEO de OpenAI, Sam Altman, se ha hecho eco de la iniciativa a través de un tuit en el que reconoce estar «emocionado por el espíritu de esta carta», iniciada por el capitalista de riesgo Ron Conway y su firma SV Angel. Para Altman, el progreso de la IA «será uno de los factores más importantes para mejorar la calidad de vida de las personas».

OpenAI se compromete a «maximizar los beneficios de la IA y mitigar los riesgos» para la sociedad, en el enésimo y último esfuerzo de la industria tecnológica para pedir que se desarrolle inteligencia artificial de manera responsable.

Y es que ya lleva más de un año en el mercado ChatGPT, creado precisamente por OpenAI, y ha supuesto toda una revolución que ha hecho tomar conciencia pública de la importancia y los peligros de la IA. Ya el pasado mes de mayo, los líderes de la IA, incluido Altman, firmaron otra carta advirtiendo que la inteligencia artificial podría conducir a la extinción de la humanidad.

En la última misiva propuesta por la empresa SV Angel, como se cuenta ya con más datos y experiencia sobre el comportamiento, el impacto y los peligros de la IA, ya compara la herramienta con lo revolucionario para la sociedad que fueron otros inventos como la imprenta, la máquina de vapor, el motor de combustión, la electricidad o el mismo internet. La carta dice que «el equilibrio de sus impactos buenos y malos en los humanos se moldeará a través de las acciones y la consideración que ejercitemos como humanos«.

Open AI-Sam Altman CEO-ChatGPT
Sam Altman, CEO de Open AI, creadora y comercializadora de Chat GPT.

Y continúa dejando muy claro que los culpables, si algo sale mal, seremos todos, como tantas y tantas veces ha dejado ver Hollywood (véase la saga Terminator): «Es nuestra responsabilidad colectiva tomar decisiones que maximicen los beneficios de la IA y mitiguen los riesgos, para hoy y para las generaciones futuras», dicen. Sin embargo, en el escrito no se dice nada de qué acciones concretas se vana realizar para ello.

Sam Altman fue despedido, porque la junta encontró evidencias de que se estaba desarrollando una IA que era potencialmente peligrosa y podría acabar con la humanidad

La carta se ha hecho pública unos días después de que Elon Musk demandara a OpenAI, líder en el mercado de la IA, alegando que la startup violó su misión fundacional al anteponer las ganancias al beneficio de la humanidad. En una nota interna, OpenAI dijo que «no está de acuerdo categóricamente» con la demanda de Musk.

Sin embargo, durante los acontecimientos en el consejo de administración de OpenAI de principios del pasado mes de noviembre, cuando Sam Altman fue despedido, porque la junta encontró evidencias de que se estaba desarrollando una IA que era potencialmente peligrosa y podría acabar con la humanidad, la situación se resolvió con la reincorporación de Altman como CEO.

También se continuó con el desarrollo de nuevas versiones y herramientas de ChatGPT, y la aceptación de las líneas de negocio posibles planteadas gracias a la inversión de 13.000 millones de dólares en OpenAI por parte de Microsoft, que desde entonces ha incorporado a sus productos todas las novedades que OpenAI le ofrece, y ha dejado atrás a Google en la carrera de la IA.


- Publicidad -