Revelan que empleados de Google intentaron bloquear el lanzamiento del rival de СhatGPT

Miembros del personal de la empresa advirtieron que el chatbot de inteligencia artificial Bard generaba afirmaciones imprecisas y peligrosas.

Tecnología 11 de abril de 2023
643510a1e9ff71049712428f
Imagen ilustrativa Jakub Porzycki / NurPhoto / Gettyimages.ru

Dos empleados de Google que se dedican a revisar los productos de inteligencia artificial (IA) de la empresa, en marzo, intentaron impedir que la compañía lanzara su chatbot de IA Bard, advirtiendo que la herramienta generaba afirmaciones imprecisas y peligrosas, informa The New York Times.

Los investigadores de los gigantes tecnológicos como Google y Microsoft afirman que las empresas se están arriesgando al lanzar una tecnología que incluso sus propios desarrolladores no comprenden del todo. Google lanzó Bard tras años de desacuerdo interno sobre si los beneficios de la inteligencia artificial generativa– la tecnología que alimenta los chatbots– superaban los riesgos.

El equipo de Innovación Responsable de la compañía documentó una serie de problemas con los chatbots, como por ejemplo que podrían producir información falsa, perjudicar a los usuarios que se encariñan emocionalmente con ellos y permitir la "violencia facilitada por la tecnología" mediante el acoso masivo en línea.

La carrera por dominar el mercado
Dos revisores de ese equipo habían presentado una evaluación de riesgos de Bard en la que recomendaban bloquear su lanzamiento inminente. A pesar de las medidas de seguridad adoptadas, creían que el chatbot no estaba preparado. No obstante, la directora del equipo de Innovación Responsable, Jen Gennai, editó el documento, eliminó dichas recomendaciones y minimizó la gravedad de los riesgos de Bard, según fuentes familiarizadas con el asunto.

En declaraciones a The New York Times, Gennai defendió sus acciones indicando que Bard es solo un experimento, por lo que los revisores no deberían compartir sus opiniones sobre el proceder de la empresa. Agregó que "corrigió suposiciones inexactas" y que por el contrario agregó "más riesgos y daños que necesitaban consideración". Esto hizo que el chatbot fuera más seguro, insistió.

Hasta hace poco las empresas tecnológicas tenían aversión al riesgo, pero ahora están haciendo movimientos agresivos en su intento por hacerse con el control de lo que podría ser el próximo gran avance de la industria: la IA generativa.

Te puede interesar
Lo más visto