El consorcio Alphabet Inc., matriz de Google, advirtió a sus empleados sobre cómo usar los chatbots, incluido su propio Bard, al mismo tiempo que comercializa el programa en todo el mundo, dijeron a Reuters cuatro personas familiarizadas con el asunto.
Así se verían los referentes de la "Generación Dorada" como "Padres de la Patria" según la IA (y atención con Arturo Vidal)
La empresa aconsejó a los empleados que no ingresen sus materiales confidenciales en los chatbots de inteligencia artificial (IA), dijeron las fuentes, en información que la compañía ya confirmó, citando su política sobre la protección de la información.
Cuidado con el código generado
Los chatbots, entre ellos Bard y ChatGPT, son programas con emulación humana que utilizan la llamada inteligencia artificial generativa para mantener conversaciones con los usuarios y responder a innumerables indicaciones. Investigadores descubrieron que una IA similar a la de estos dos chatbots podría reproducir datos que absorbió durante el "entrenamiento" del algoritmo, creando un riesgo de fuga informativa.
Alphabet también aconsejó a sus ingenieros evitar el uso directo del código de computadora que pueden generar los chatbots, dijeron algunas de las fuentes consultadas. Cuando se le pidió un comentario, la compañía dijo que Bard puede hacer sugerencias imprecisas de código y, sin embargo, estas son de utilidad a los programadores. Google también dijo que tiene como objetivo ser transparente sobre las limitaciones de su tecnología.
¿Es una alternativa saludable beber agua con gas? Esto dice la ciencia
Chatbots en fuga
Las preocupaciones reflejadas en el comunicado de Alphabet muestran cómo Google desea evitar daños comerciales por el software que lanzó en competencia con ChatGPT. Lo que está en juego en la carrera de Google contra los patrocinadores de ChatGPT, OpenAI y Microsoft Corp, son miles de millones de dólares de inversión y publicidad e ingresos en la nube aún no revelados, a raíz de los nuevos programas de IA.
La precaución de Google también refleja lo que se está convirtiendo en un estándar de seguridad para las corporaciones, es decir, advertir al personal sobre el uso de programas de chat disponibles públicamente.
"Chatbot, no se lo digas a nadie"
Un número creciente de empresas en todo el mundo ha establecido medidas de protección en los chatbots de IA, entre ellas Samsung, Amazon y Deutsche Bank, dijeron las citadas empresas a Reuters. Según otros informes, Apple también lo ha hecho, aunque no ha emitido declaraciones al respecto.Alrededor del 43 por ciento de los profesionistas ha usado ChatGPT u otras herramientas de inteligencia artificial desde enero pasado, a menudo sin decirle a sus jefes. Así lo reveló una encuesta entre casi 12.000 profesionistas, algunos de las principales empresas con sede en Estados Unidos, El sondeo fue realizado por el sitio Fishbowl.