L'autorità nazionale per la protezione dei dati della Corea del Sud ha temporaneamente sospeso i download di DeepSeek dagli app store, mentre indaga su come l'azienda cinese gestisce i dati degli utenti.
La Personal Information Protection Commission (PIPC) sudcoreana ha dichiarato in un comunicato del 17 febbraio che DeepSeek ha accettato di sospendere i nuovi download il 15 febbraio, e di collaborare con l'agenzia per rafforzare la privacy prima di un futuro rilancio.
Questa sospensione limita i nuovi download ma gli utenti esistenti possono ancora utilizzare i servizi di DeepSeek, spiega la PIPC. Tuttavia, l'agenzia consiglia cautela fino alla pubblicazione dei risultati dell'indagine:
"[La Commission intende] esaminare attentamente lo stato di elaborazione delle informazioni personali di DeepSeek durante il periodo di sospensione del servizio, per migliorare la conformità alla legge sulla protezione dei dati e alleviare le preoccupazioni riguardo all'uso delle informazioni personali dei nostri cittadini."
Il chatbot DeepSeek, che funziona in modo simile a ChatGPT di OpenAI, è stato lanciato il 27 gennaio, destando immediatamente preoccupazioni sull'uso dei dati: regolatori ed esperti di privacy hanno lanciato l'allarme sui potenziali rischi per la sicurezza nazionale.
Anche questo potrebbe aver contribuito a spaventare i mercati azionari statunitensi e crypto, che hanno registrato un calo lo stesso giorno del lancio di DeepSeek.
La PIPC afferma che, dopo il lancio del chatbot cinese, ha subito avviato un'analisi:
"A seguito della nostra analisi, abbiamo identificato alcune carenze nelle funzioni di comunicazione e nelle politiche di elaborazione delle informazioni personali con i fornitori di servizi di terze parti."
Come parte della sua indagine, la PIPC condurrà anche ispezioni sul posto per verificare la conformità alle leggi sudcoreane e indagherà su come DeepSeek memorizza ed elabora i dati degli utenti.
L'agenzia suggerirà anche miglioramenti affinché DeepSeek possa soddisfare i requisiti normativi, ed emetterà linee guida per altre aziende di intelligenza artificiale così da prevenire il ripetersi di casi simili.