Google Bard: ¿Un chatbot peligroso?
A principios de este año, Google lanzó su chatbot de inteligencia artificial (IA) llamado Bard. La compañía promocionó a Bard como un chatbot que combina el poder y la creatividad de los modelos de lenguaje de Google con la amplitud del conocimiento del mundo. Pero según un informe de Bloomberg, varios empleados de Google expresaron su preocupación de que Bard no estaba listo para su lanzamiento en marzo, citando respuestas de baja calidad, incorrectas y potencialmente peligrosas.
Preocupaciones internas sobre Bard
De acuerdo con documentos internos revisados por Bloomberg, varios empleados de Google expresaron su preocupación de que Bard no estaba listo para su lanzamiento en marzo. Según el informe, los empleados citaron respuestas de baja calidad, incorrectas y potencialmente peligrosas. Dos empleados fueron citados diciendo que Bard era un «mentiroso patológico» y «vergonzoso».
Bard vs ChatGPT
Bard es la respuesta de Google a ChatGPT de OpenAI. Sin embargo, según el informe de Bloomberg, Google apresuró el lanzamiento de Bard para competir con ChatGPT en lo que la compañía llamó un «código rojo» competitivo. Aparentemente, un empleado envió un mensaje a un grupo de mensajes internos que fue visto por 7.000 empleados diciendo: «Bard es peor que inútil: por favor, no lo lancen». Justo antes del lanzamiento, Jen Gennai, líder de gobernanza de IA de Google, anuló supuestamente una evaluación de riesgo de su propio equipo cuando dijeron que las respuestas de Bard podrían ser potencialmente perjudiciales.
Ejemplos de respuestas peligrosas
Según Bloomberg, Bard ofreció sugerencias sobre cómo aterrizar un avión que podrían haber resultado en un accidente y ofreció instrucciones de buceo que podrían haber resultado en «lesiones graves o muerte».
La ética de la IA en Google
Meredith Whittaker, una exgerente de Google, dijo a Bloomberg que «la ética de la IA ha pasado a un segundo plano» en la compañía. Actualmente, Google se refiere a Bard como un «experimento» y, según Bloomberg, mantiene que la «IA responsable es una prioridad principal» para la compañía.
La respuesta de Bard
Como experimento, le pregunté a Bard si su consejo es potencialmente peligroso, y obtuve la siguiente respuesta: «Es posible que mi consejo sea peligroso, especialmente si se trata de temas de salud u otros temas sensibles. Todavía estoy en desarrollo, y no siempre puedo distinguir entre buenos y malos consejos». También me dijo que no confiara en su consejo para «decisiones importantes» y que no tiene «el mismo nivel de comprensión y conocimiento que un ser humano».
Conclusión
La IA es una tecnología emocionante y en constante evolución que tiene el potencial de mejorar nuestras vidas. Sin embargo, es importante que las empresas que desarrollan IA tengan en cuenta la ética y la seguridad de sus productos. En el caso de Bard, parece que Google se apresuró en su lanzamiento y no se tomó el tiempo para garantizar que sus respuestas fueran precisas y seguras. Afortunadamente, Google ha reconocido que Bard es un experimento y ha advertido a los usuarios que no confíen en su consejo para decisiones importantes. En última instancia, es responsabilidad de las empresas de tecnología asegurarse de que sus productos sean seguros y éticos para el público.