Cuidado lo que le dices a ChatGPT y la inteligencia artificial generativa pueden poner en riesgo la seguridad tu información más sensible

Cuidado lo que le dices a ChatGPT y la inteligencia artificial generativa pueden poner en riesgo la seguridad tu información más sensible
Cuidado lo que le dices a ChatGPT y la inteligencia artificial generativa pueden poner en riesgo la seguridad tu información más sensible

Cuidado con lo que le dices a ChatGPT. La privacidad es una preocupación creciente en el mundo digital, especialmente cuando se trata de compartir información sensible en línea. Esto es particularmente importante en el caso de ChatGPT, un chatbot que está ganando popularidad rápidamente. Aunque ChatGPT puede ser útil para resolver dudas y ayudar a trabajar mejor, es importante tener en cuenta que este motor de inteligencia artificial conversacional puede estar en riesgo de sufrir ataques cibernéticos.

Un informe reciente de la consultora de seguridad de datos Cyberhaven reveló que el 4,2% de los 1,6 millones de trabajadores de empresas que trabajan con ChatGPT intentaron introducir datos en el sistema que fueron bloqueados por su seguridad. Este porcentaje puede parecer bajo, pero es preocupante porque en todos los casos el peligro estaba en que esos trabajadores acabaran filtrando datos sensibles.

Entre los datos sensibles que se pueden filtrar se encuentran información confidencial sobre la empresa, datos de clientes o código fuente de sus aplicaciones. Algunos ejemplos incluyen la copia y pegado del documento de la estrategia de una empresa en ChatGPT, así como la introducción del nombre de un paciente y su estado de salud en el chatbot para escribir el borrador de una carta a la compañía de seguros del paciente.

El peligro es real e irá en aumento a medida que más personas utilicen estos sistemas generativos de inteligencia artificial. Las empresas están comenzando a tomar medidas para evitar este tipo de filtraciones, restringiendo el uso de ChatGPT o publicando avisos para sus empleados.

Es importante tener en cuenta que ChatGPT no sabe guardar secretos, por lo que si alguien da datos confidenciales al chatbot, este no sabrá que son confidenciales. Los expertos en ciberseguridad advierten de un nuevo tipo de ataques llamados "de extracción de datos de entrenamiento" o de "exfiltración mediante inferencia de aprendizaje automático", que básicamente logran sacarle información confidencial a ChatGPT.

Es necesario tener en cuenta que la privacidad y la protección de los datos confidenciales es una responsabilidad compartida entre los usuarios y los desarrolladores de estos sistemas. Por lo tanto, es importante que se tomen medidas para proteger los datos y se fomente la educación y conciencia sobre la privacidad en el uso de estos sistemas.

#privacidad #seguridad #ciberseguridad #ChatGPT #datosconfidenciales #inteligenciaartificial #ciberataques #protecciondedatos

Publicar un comentario

0 Comentarios