Riesgos del ChatGPT en un entorno cooperativo

Compartir esta publicación

Hace unas semanas, en nuestro post sobre las «filtraciones ocultas», exploramos cómo los empleados podrían compartir sin darse cuenta datos confidenciales de la empresa con plataformas de IA como ChatGPT. En esta ocasión, hemos abordado brevemente la forma en que los proveedores de IA pueden gestionar estos datos, pero ahora vamos a profundizar en los riesgos del ChatGPT: a qué se enfrentan las empresas cuando los empleados entregan información confidencial sin saberlo.

Riesgos del ChatGPT: Por qué las empresas de IA acceden a tus datos

Muchos asumen que los proveedores de IA como OpenAI recopilan y procesan los datos de los usuarios únicamente para mejorar sus modelos. Afortunadamente, la evolución de la normativa exige opciones para que los usuarios puedan optar por no participar en este uso de datos.

Sin embargo, plataformas como ChatGPT se reservan explícitamente el derecho a acceder a las interacciones de los usuarios por varias razones, entre ellas:

  • Investigación de incidentes de seguridad
  • Asistencia al cliente
  • Cumplimiento de las obligaciones legales
  • Mejora del rendimiento de la IA (a menos que se excluya)

Esto significa que incluso si optas por no recibir formación, tus datos pueden seguir siendo conservados, revisados y potencialmente expuestos.

¿Y si digo «no»?

Incluso si desactivas el Historial de conversaciones o decides no participar en el entrenamiento de modelos, las políticas de OpenAI lo permiten:

  • Conservación de las conversaciones durante un máximo de 30 días, durante los cuales el personal autorizado podrá revisarlas por motivos legales o de seguridad.
  • Acceso por parte de equipos internos y proveedores de confianza (bajo acuerdos de confidencialidad) para investigar abusos, apoyar a los usuarios o tratar asuntos legales.
  Casos de uso de una solución RAG privada

Como líder (ya sea un CEO, CIO o jefe de seguridad), ¿eres plenamente consciente de la versión y configuración de la plataforma ChatGPT que tus empleados podrían estar utilizando? En una gran organización, esto puede descontrolarse rápidamente.

Ejemplos reales de filtración de datos de IA

Samsung

A principios de 2023, Samsung levantó la prohibición de ChatGPT en su división de semiconductores para mejorar la productividad. En 20 días se produjeron tres graves filtraciones de datos:

  • Fuga de código fuente: Un ingeniero copió código de software propietario de medición de semiconductores en ChatGPT para depurarlo, compartiendo involuntariamente IP sensible.
  • Divulgación de patrones de prueba: Otro empleado subió secuencias de prueba confidenciales utilizadas en la fabricación de chips – secretos comerciales críticos.
  • Exposición de reuniones internas: Un miembro del personal envió una transcripción de una reunión interna confidencial a ChatGPT para generar notas de presentación, exponiendo discusiones estratégicas.

Estos incidentes pusieron de manifiesto los riesgos del ChatGPT, es decir, lo rápido que puede perderse el control sobre los datos confidenciales cuando se utilizan plataformas públicas de IA.

Amazon

A principios de 2023, Amazon emitió advertencias internas después de que los empleados compartieran datos confidenciales de la empresa con ChatGPT. Las revisiones legales revelaron que los resultados de la IA se parecían a datos internos de Amazon, lo que hizo saltar las alarmas sobre la posible inclusión de información privada en el entrenamiento de la IA.

Walmart

Walmart distribuyó memorandos instando a los empleados a no compartir ninguna información de la empresa con herramientas públicas de IA como ChatGPT, citando serias preocupaciones por las filtraciones de datos y la protección de secretos comerciales.

  Simula tus pruebas de UI con Wiremock

Incidente sanitario en los Países Bajos

Una consulta de medicina general de los Países Bajos denunció una violación de datos después de que un empleado introdujera datos médicos de pacientes en un chatbot de IA. Esta filtración infringía la política de la empresa y las estrictas leyes de protección de datos, lo que pone de manifiesto los riesgos específicos a los que se enfrentan los sectores regulados, como el sanitario.

Consecuencias de las filtraciones de datos

  • Riesgos legales y normativos: Las infracciones de las leyes de protección de datos (como GDPR e HIPAA) o la exposición de secretos comerciales pueden dar lugar a graves multas, demandas y daños a la reputación.
  • Pérdida de control de los datos: Una vez que los datos privados se envían a una herramienta pública de IA, no es posible rastrearlos, recuperarlos o auditarlos con eficacia.
  • Vulnerabilidades de seguridad: Los actores malintencionados podrían aprovecharse de los datos compartidos indebidamente, aumentando las amenazas a la ciberseguridad.

¿Qué pueden hacer las organizaciones?

Proteger los datos confidenciales al tiempo que se aprovecha la IA requiere un enfoque múltiple:

Supervisión y auditoría: Implementar herramientas y políticas para supervisar el uso de la IA, aplicar normas de protección de datos e identificar vulnerabilidades.

Formación de los empleados: Al igual que formamos a nuestros empleados para que reconozcan los intentos de phishing, también debemos formarles para que reconozcan los peligros asociados a compartir datos protegidos con plataformas públicas de IA.

Conclusión: Adoptar agentes de IA privados seguros como COGNOS

La solución no es abandonar la IA, sino adoptarla de forma responsable y segura.

COGNOS ofrece una potente alternativa para mitigar los riesgos de ChatGPT. A diferencia de las plataformas públicas de IA como ChatGPT:

  • COGNOS se ejecuta completamente dentro de su infraestructura, desconectado de la Internet pública.
  • Procesa sus datos localmente, garantizando un riesgo cero de exposición externa.
  • La información de su propiedad permanece totalmente bajo su control, sin acceso de terceros, ni siquiera para la resolución de problemas o la asistencia.
  “Software que funciona” es la medida principal de progreso

Las organizaciones líderes ya están aprovechando los agentes de IA privados, como COGNOS, para combinar el poder de la IA con una sólida seguridad de los datos y el cumplimiento normativo. Tanto si maneja secretos comerciales, documentos legales o datos confidenciales de clientes, la adopción de un agente de IA privado le garantiza tanto la innovación como la protección.

Author

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Suscríbete a nuestro boletín de noticias

Recibe actualizaciones de los últimos descubrimientos tecnológicos

Acerca de Apiumhub

Apiumhub reúne a una comunidad de desarrolladores y arquitectos de software para ayudarte a transformar tu idea en un producto potente y escalable. Nuestro Tech Hub se especializa en Arquitectura de Software, Desarrollo Web & Desarrollo de Aplicaciones Móviles. Aquí compartimos con usted consejos de la industria & mejores prácticas, basadas en nuestra experiencia.

Estima tu proyecto

Contacta
Posts populares
Obtén nuestro Libro: Software Architecture Metrics

¿Tienes un proyecto desafiante?

Podemos trabajar juntos

apiumhub software development projects barcelona
Secured By miniOrange