Problemas para DeepSeek. Una reciente investigación ha descubierto un problema de seguridad en la nueva IA que implica la filtración de gran cantidad de información sensible, entre la que se incluye el historial de chats de los usuarios con las consultas realizadas en la herramienta.
Parece ser que una base de datos de acceso público de la DeepSeek no ha estado lo suficientemente protegida y ha expuesto una elevada cifra de datos. Se encontraba sin ningún tipo de seguridad y con un acceso libre, sin ninguna autenticación.
Y se ha desvelado que esa base de datos contenía el historial de chats, además de numerosos flujos de registro, información sensible sobre la API y otro tipo de datos confidenciales de los que no se han dado más información, pero que posiblemente se refieran a datos de usuarios.
Más de 1 millón de datos expuestos
Todo en formato de texto plano, pero hay más. Aparece también el tipo de servicio de DeepSeek generaron todos esos registros. En total se ha dado una cifra aproximada de más de 1 millón de datos que estaban expuestos sin ninguna seguridad, algo que supone todo un riesgo.
No solo para DeepSeek sino para todos los usuarios que han utilizado en algún momento la herramienta de IA china, pues los registros datan del 6 de enero de 2025, así que prácticamente hay información desde la aparición pública de la IA que rivaliza con ChatGPT, Copilot, etc.
Está claro que esta filtración es un grave problema de seguridad, que probablemente ya se encuentre solventado, pues este descubrimiento fue revelado a los responsables de DeepSeek para que tuvieran constancia y tomasen las medidas oportunas para su arreglo.
Es un nuevo problema de DeepSeek y se la ven a acumulando, a la su prohibición de uso en la Marina de Estados Unidos se le suma un futuro bloqueo de DeepSeek en dicho país siguiendo la estela de TikTok, básicamente por guardar los datos de los usuarios en servidores de China.
Eso supone que los datos están en mano de un gobierno extranjero y tendría la potestad de poder acceder a ellos si así lo considera la administración alegando motivos de seguridad, algo que ya vimos hace poco. En definitiva, se le suma el problema de la privacidad de DeepSeek.
Lo que queda claro con esta filtración de información de DeepSeek es que los servicios de IA deben aplicar fuertes medidas de seguridad para evitar este tipo de incidentes que pueden poner en peligro la integridad de la información de los que la usan y de la propia herramienta.
Vía: WIZ
- Ver Comentarios