Los empleados de Google supuestamente rogaron que no se lanzara el chatbot de IA ‘mentiroso patol√≥gico’ Bard.

Google Bard: ¬ŅUn chatbot peligroso?

A principios de este a√Īo, Google lanz√≥ su chatbot de inteligencia artificial (IA) llamado Bard. La compa√Ī√≠a promocion√≥ a Bard como un chatbot que combina el poder y la creatividad de los modelos de lenguaje de Google con la amplitud del conocimiento del mundo. Pero seg√ļn un informe de Bloomberg, varios empleados de Google expresaron su preocupaci√≥n de que Bard no estaba listo para su lanzamiento en marzo, citando respuestas de baja calidad, incorrectas y potencialmente peligrosas.

Preocupaciones internas sobre Bard

De acuerdo con documentos internos revisados por Bloomberg, varios empleados de Google expresaron su preocupaci√≥n de que Bard no estaba listo para su lanzamiento en marzo. Seg√ļn el informe, los empleados citaron respuestas de baja calidad, incorrectas y potencialmente peligrosas. Dos empleados fueron citados diciendo que Bard era un ¬ęmentiroso patol√≥gico¬Ľ y ¬ęvergonzoso¬Ľ.

Bard vs ChatGPT

Bard es la respuesta de Google a ChatGPT de OpenAI. Sin embargo, seg√ļn el informe de Bloomberg, Google apresur√≥ el lanzamiento de Bard para competir con ChatGPT en lo que la compa√Ī√≠a llam√≥ un ¬ęc√≥digo rojo¬Ľ competitivo. Aparentemente, un empleado envi√≥ un mensaje a un grupo de mensajes internos que fue visto por 7.000 empleados diciendo: ¬ęBard es peor que in√ļtil: por favor, no lo lancen¬Ľ. Justo antes del lanzamiento, Jen Gennai, l√≠der de gobernanza de IA de Google, anul√≥ supuestamente una evaluaci√≥n de riesgo de su propio equipo cuando dijeron que las respuestas de Bard podr√≠an ser potencialmente perjudiciales.

Ejemplos de respuestas peligrosas

Seg√ļn Bloomberg, Bard ofreci√≥ sugerencias sobre c√≥mo aterrizar un avi√≥n que podr√≠an haber resultado en un accidente y ofreci√≥ instrucciones de buceo que podr√≠an haber resultado en ¬ęlesiones graves o muerte¬Ľ.

La ética de la IA en Google

Meredith Whittaker, una exgerente de Google, dijo a Bloomberg que ¬ęla √©tica de la IA ha pasado a un segundo plano¬Ľ en la compa√Ī√≠a. Actualmente, Google se refiere a Bard como un ¬ęexperimento¬Ľ y, seg√ļn Bloomberg, mantiene que la ¬ęIA responsable es una prioridad principal¬Ľ para la compa√Ī√≠a.

La respuesta de Bard

Como experimento, le pregunt√© a Bard si su consejo es potencialmente peligroso, y obtuve la siguiente respuesta: ¬ęEs posible que mi consejo sea peligroso, especialmente si se trata de temas de salud u otros temas sensibles. Todav√≠a estoy en desarrollo, y no siempre puedo distinguir entre buenos y malos consejos¬Ľ. Tambi√©n me dijo que no confiara en su consejo para ¬ędecisiones importantes¬Ľ y que no tiene ¬ęel mismo nivel de comprensi√≥n y conocimiento que un ser humano¬Ľ.

Conclusión

La IA es una tecnolog√≠a emocionante y en constante evoluci√≥n que tiene el potencial de mejorar nuestras vidas. Sin embargo, es importante que las empresas que desarrollan IA tengan en cuenta la √©tica y la seguridad de sus productos. En el caso de Bard, parece que Google se apresur√≥ en su lanzamiento y no se tom√≥ el tiempo para garantizar que sus respuestas fueran precisas y seguras. Afortunadamente, Google ha reconocido que Bard es un experimento y ha advertido a los usuarios que no conf√≠en en su consejo para decisiones importantes. En √ļltima instancia, es responsabilidad de las empresas de tecnolog√≠a asegurarse de que sus productos sean seguros y √©ticos para el p√ļblico.

Facebook
Twitter
LinkedIn
Pinterest

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.Ver Política de cookies
Privacidad