Los empleados de Google supuestamente rogaron que no se lanzara el chatbot de IA ‘mentiroso patológico’ Bard.

Google Bard: ¿Un chatbot peligroso?

A principios de este año, Google lanzó su chatbot de inteligencia artificial (IA) llamado Bard. La compañía promocionó a Bard como un chatbot que combina el poder y la creatividad de los modelos de lenguaje de Google con la amplitud del conocimiento del mundo. Pero según un informe de Bloomberg, varios empleados de Google expresaron su preocupación de que Bard no estaba listo para su lanzamiento en marzo, citando respuestas de baja calidad, incorrectas y potencialmente peligrosas.

Preocupaciones internas sobre Bard

De acuerdo con documentos internos revisados por Bloomberg, varios empleados de Google expresaron su preocupación de que Bard no estaba listo para su lanzamiento en marzo. Según el informe, los empleados citaron respuestas de baja calidad, incorrectas y potencialmente peligrosas. Dos empleados fueron citados diciendo que Bard era un «mentiroso patológico» y «vergonzoso».

Bard vs ChatGPT

Bard es la respuesta de Google a ChatGPT de OpenAI. Sin embargo, según el informe de Bloomberg, Google apresuró el lanzamiento de Bard para competir con ChatGPT en lo que la compañía llamó un «código rojo» competitivo. Aparentemente, un empleado envió un mensaje a un grupo de mensajes internos que fue visto por 7.000 empleados diciendo: «Bard es peor que inútil: por favor, no lo lancen». Justo antes del lanzamiento, Jen Gennai, líder de gobernanza de IA de Google, anuló supuestamente una evaluación de riesgo de su propio equipo cuando dijeron que las respuestas de Bard podrían ser potencialmente perjudiciales.

Ejemplos de respuestas peligrosas

Según Bloomberg, Bard ofreció sugerencias sobre cómo aterrizar un avión que podrían haber resultado en un accidente y ofreció instrucciones de buceo que podrían haber resultado en «lesiones graves o muerte».

La ética de la IA en Google

Meredith Whittaker, una exgerente de Google, dijo a Bloomberg que «la ética de la IA ha pasado a un segundo plano» en la compañía. Actualmente, Google se refiere a Bard como un «experimento» y, según Bloomberg, mantiene que la «IA responsable es una prioridad principal» para la compañía.

La respuesta de Bard

Como experimento, le pregunté a Bard si su consejo es potencialmente peligroso, y obtuve la siguiente respuesta: «Es posible que mi consejo sea peligroso, especialmente si se trata de temas de salud u otros temas sensibles. Todavía estoy en desarrollo, y no siempre puedo distinguir entre buenos y malos consejos». También me dijo que no confiara en su consejo para «decisiones importantes» y que no tiene «el mismo nivel de comprensión y conocimiento que un ser humano».

Conclusión

La IA es una tecnología emocionante y en constante evolución que tiene el potencial de mejorar nuestras vidas. Sin embargo, es importante que las empresas que desarrollan IA tengan en cuenta la ética y la seguridad de sus productos. En el caso de Bard, parece que Google se apresuró en su lanzamiento y no se tomó el tiempo para garantizar que sus respuestas fueran precisas y seguras. Afortunadamente, Google ha reconocido que Bard es un experimento y ha advertido a los usuarios que no confíen en su consejo para decisiones importantes. En última instancia, es responsabilidad de las empresas de tecnología asegurarse de que sus productos sean seguros y éticos para el público.

Facebook
Twitter
LinkedIn
Pinterest

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.Ver Política de cookies
Privacidad