{"id":8704,"date":"2024-03-26T10:43:26","date_gmt":"2024-03-26T09:43:26","guid":{"rendered":"https:\/\/ecc-netitalia.it\/?p=8704"},"modified":"2024-03-26T10:43:28","modified_gmt":"2024-03-26T09:43:28","slug":"tiktok-sanzionata-dallagcm-per-controlli-inadeguati-sulla-sicurezza-dei-minori","status":"publish","type":"post","link":"https:\/\/ecc-netitalia.it\/it\/news\/tiktok-sanzionata-dallagcm-per-controlli-inadeguati-sulla-sicurezza-dei-minori\/","title":{"rendered":"Tiktok sanzionata dall\u2019AGCM per controlli inadeguati sulla sicurezza dei minori"},"content":{"rendered":"\n<p>Una sanzione di ben 10 milioni di euro \u00e8 stata irrogata dall\u2019<strong>Autorit\u00e0 Garante della Concorrenza e del Mercato (AGCM)<\/strong> alle tre societ\u00e0 del gruppo Bytedance Ltd, ovvero l\u2019irlandese TikTok Technology Limited, la britannica TikTok Information Technologies UK Limited e l\u2019italiana TikTok Italy Srl. La ragione? Secondo l\u2019Autorit\u00e0 i <strong>controlli <\/strong>della societ\u00e0 sui contenuti che circolano sulla piattaforma sono risultati <strong>inadeguati<\/strong>, soprattutto in riferimenti a quelli che possono minacciare la <strong>sicurezza <\/strong>di soggetti minori e vulnerabili.<\/p>\n\n\n\n<p><strong>Tiktok la piattaforma dei giovanissimi gi\u00e0 sotto la lente delle autorit\u00e0:<\/strong><\/p>\n\n\n\n<p>La <strong>piattaforma cinese di social media TikTok<\/strong>, non solo, viene utilizzata dai creatori di contenuti, influencer, marchi e aziende per raggiungere un pubblico pi\u00f9 ampio e coinvolgere la community, ma ha guadagnato una vasta popolarit\u00e0 soprattutto tra gli <strong>utenti pi\u00f9 giovani<\/strong>, inclusi gli adolescenti. Attraverso Tiktok, quest\u2019ultimi creano, visualizzano e condividono brevi video musicali, clip comiche e altri tipi di contenuti creativi, come le cosiddette \u201c<em>social challenges<\/em>\u201c(sfide nelle quali pi\u00f9 persone si mettono alla prova in una particolare attivit\u00e0) che molto spesso si sono rivelate pericolose e, in alcuni casi, fatali per gli utenti pi\u00f9 giovani. Tiktok non \u00e8 nuovo agli interventi delle autorit\u00e0 competenti. Gi\u00e0 nel 2021 il Garante della Privacy era intervenuto nei confronti della societ\u00e0 riguardo alla questione dell\u2019<strong>accesso ai social network<\/strong> da parte di soggetti con et\u00e0 inferiore a quella prevista dalle <a href=\"https:\/\/ecc-netitalia.it\/it\/news\/tik-tok-e-tutela-dei-minori-il-garante-privacy-interviene-ancora-nei-confronti-del-social-network\/\">condizioni di utilizzo della piattaforma<\/a>. Anche l\u2019AGCM era intervenuta nel 2022 riguardo alle modalit\u00e0 di presentazione dei servizi offerti da Tiktok legati agli acquisti effettuati sulla piattaforma tramite le cosiddette monete virtuali, considerate poco trasparenti. L\u2019Autorit\u00e0 aveva avviato anche un altro procedimento nei confronti della piattaforma e della societ\u00e0 statunitense\u00a0<strong>Crystal Drops.Co<\/strong>, a causa di una <strong>pubblicit\u00e0 poco trasparente <\/strong>delle gocce Crystal Drops, utilizzate per cambiare il colore degli occhi, e <a href=\"https:\/\/ecc-netitalia.it\/it\/news\/lantistrust-interviene-contro-tiktok-e-la-societa-crystal-drops-delle-gocce-per-cambiare-il-colore-degli-occhi\/\">promosse proprio su Tiktok<\/a>.<\/p>\n\n\n\n<p><strong>Perch\u00e9 Tiktok \u00e8 stata multata dall\u2019AGCM:<\/strong><\/p>\n\n\n\n<p>Dopo aver avviato un\u2019istruttoria nel 2023, l\u2019Autorit\u00e0 ha accertato, come dichiarato in un comunicato, \u201c<em>la responsabilit\u00e0 di TikTok nella diffusione di contenuti &#8211; come quelli relativi alla challenge \u201ccicatrice francese\u201d &#8211; suscettibili di minacciare la sicurezza psico-fisica degli utenti, specialmente se minori e vulnerabili<\/em>\u201d. La \u201cCicatrice francese\u201d \u00e8 stata una tendenza che ha spopolato sui social network, in particolare su TikTok, coinvolgendo soprattutto gli utenti pi\u00f9 giovani. Il trend, nato in Francia, consisteva nel registrare video mentre ci si stringeva la pelle delle guance fino a provocare ematomi e macchie rosse in corrispondenza degli zigomi, simulando uno scontro. Una challenge apparentemente innocua ma che poteva portare a gravi conseguenze.&nbsp;E questo \u00e8 solo uno dei tanti contenuti considerati <strong>pericolosi<\/strong>. Inoltre, come specificato dall\u2019AGCM, TikTok non ha preso misure adeguate a evitare la diffusione di tali contenuti, non rispettando pienamente, dunque, le <strong>Linee Guida<\/strong> di cui si \u00e8 dotata e che ha condiviso con i consumatori, rassicurandoli che la piattaforma \u00e8 uno spazio sicuro. Secondo l\u2019Autorit\u00e0, tali Linee Guida non tengono sufficientemente conto della specifica vulnerabilit\u00e0 degli adolescenti, come, ad esempio, la difficolt\u00e0 a distinguere la realt\u00e0 dalla finzione e la tendenza ad emulare comportamenti di gruppo. Un altro aspetto messo in luce dall\u2019AGCM \u00e8 che questi contenuti vengono sistematicamente riproposti agli utenti a causa della loro <strong>profilazione algoritmica<\/strong> per aumentare le interazioni e il tempo trascorso sulla piattaforma, aumentando cos\u00ec i profitti pubblicitari e promuovendo un uso sempre pi\u00f9 frequente del social network. Quando ci si riferisce alla profilazione algoritmica si intende un processo che aiuta la piattaforma a personalizzare l&#8217;esperienza dell&#8217;utente in base ai suoi interessi, preferenze e comportamenti. Questo sistema utilizza algoritmi avanzati per analizzare i dati dell&#8217;utente, come i video visualizzati, i &#8220;mi piace&#8221; assegnati, i commenti lasciati e le interazioni precedenti con altri contenuti. In sostanza, dopo aver raccolto e analizzato i dati dell\u2019utente, Tiktok suggerisce contenuti che ritiene possano interessare a quell&#8217;utente specifico che vengono mostrati nella sezione &#8220;Per te&#8221; e \u201cSeguiti\u201d dell&#8217;app. A tal proposito, dagli atti del procedimento dell\u2019Autorit\u00e0 \u00e8 emerso che la modalit\u00e0 pi\u00f9 diffusa per consultare i contenuti di TikTok \u00e8 proprio lo scorrimento della sezione \u201cPer te\u201d. In aggiunta, gli algoritmi di TikTok continuano a imparare e adattarsi in base alle interazioni dell&#8217;utente con il contenuto. Di conseguenza, le raccomandazioni diventano sempre pi\u00f9 precise nel tempo. Per di pi\u00f9, secondo quanto affermato anche da Tiktok, il grande numero di informazioni raccolte permette di dedurre <strong>informazioni generali<\/strong> come l&#8217;et\u00e0 e il genere degli utenti. Ci\u00f2 solleva preoccupazioni riguardo alla <strong>privacy <\/strong>e alla trasparenza nell&#8217;uso dei <strong>dati personali<\/strong> per scopi di profilazione algoritmica. In sintesi, le descritte condotte dei professionisti, violano l\u2019articolo 20 (commi 2 e 3) del Codice del consumo, per non aver assunto misure adeguate ad evitare la diffusione di tali contenuti, e l\u2019articolo 21 (comma 4) del Codice del consumo in quanto sono in grado di ledere la salute psico-fisica di alcuni gruppi di utenti e, in particolare, di minacciare anche indirettamente la sicurezza di bambini ed adolescenti. Infine, l\u2019Autorit\u00e0 ha specificato che il procedimento intrapreso si inserisce in un contesto di attenzione crescente verso il fenomeno dei social media con l\u2019obiettivo di garantire un <strong>elevato livello di protezione<\/strong> nell\u2019ambiente digitale, specie per i minori e i soggetti vulnerabili.<\/p>\n\n\n\n<p><strong>Tiktok soggetta alle regole del Digital Markets Act:<\/strong><\/p>\n\n\n\n<p>Un provvedimento quello dell\u2019AGCM che assume particolare rilevanza se si considera che dal 7 marzo sono operative le regole del Regolamento (UE) 2022\/1925 relativo ai mercati digitali, conosciuto anche come <strong>Digital Markets Act (DMA)<\/strong> che insieme al Regolamento sui servizi digitali, <strong>Digital Services Act (DSA)<\/strong> compongono il <strong>Digital Services Package<\/strong>. Nello specifico, il DMA mira a garantire la competitivit\u00e0 e l&#8217;equit\u00e0 del settore digitale, nell&#8217;ottica di promuovere l&#8217;innovazione, prodotti e servizi digitali di elevata qualit\u00e0 e prezzi equi per i consumatori. Dopo la sua entrata in vigore nel novembre del 2022, la Commissione europea ha pubblicato la lista delle societ\u00e0 che, secondo determinati parametri, rientrano nella definizione di <strong>gatekeeper.<\/strong> Si tratta, in particolare, di motori di ricerca, servizi di intermediazione, servizi di social networking, piattaforme di condivisione video, sistemi operativi, servizi di comunicazione interpersonale, cloud computing e pubblicit\u00e0. In tutto sono sei le societ\u00e0 e, in queste, rientra anche Tiktok dopo che la Corte dell&#8217;UE ha respinto la sua richiesta di sospendere la sua designazione come gatekeeper. Pertanto, le sei societ\u00e0 avevano tempo fino al 7 marzo per conformarsi alla nuova serie di requisiti, obblighi e divieti introdotti dal DMA. Ad esempio, le grandi piattaforme non potranno pi\u00f9, trarre vantaggio dalla loro posizione dominante sul mercato digitale per promuovere in via preferenziale i propri prodotti a scapito di altri, imporre il proprio metodo di pagamento come unica possibilit\u00e0 di pagamento, riutilizzare i dati personali raccolti per un servizio ai fini di un altro servizio, imporre condizioni inique agli utenti commerciali, preinstallare determinate applicazioni software, imporre limitazioni agli utenti commerciali delle piattaforme.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Una sanzione di ben 10 milioni di euro \u00e8 stata irrogata dall\u2019Autorit\u00e0 Garante della Concorrenza e del Mercato (AGCM) alle tre societ\u00e0 del gruppo Bytedance Ltd, ovvero l\u2019irlandese TikTok Technology Limited, la britannica TikTok Information Technologies UK Limited e l\u2019italiana TikTok Italy Srl. La ragione? Secondo l\u2019Autorit\u00e0 i controlli della societ\u00e0 sui contenuti che circolano [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":8706,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[17],"tags":[],"class_list":["post-8704","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news"],"_links":{"self":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts\/8704","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/comments?post=8704"}],"version-history":[{"count":1,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts\/8704\/revisions"}],"predecessor-version":[{"id":8705,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts\/8704\/revisions\/8705"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/media\/8706"}],"wp:attachment":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/media?parent=8704"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/categories?post=8704"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/tags?post=8704"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}