Seguici

Chi...?

Sito sessista chi doveva controllare? In 3 anni 57 milioni di visite

Pubblicato

il

uomo vede di notte un sito sessista

Un viaggio nel cuore oscuro del web italiano: il sito sessista chiuso aveva milioni di click, tra privacy violata, responsabilità infrante.

La risposta immediata è duplice. Il controllo doveva avvenire lungo tutta la filiera digitale: gestori e moderatori del sito, hosting e registrar che lo ospitano, motori di ricerca che ne amplificano la portata, circuiti pubblicitari che lo finanziano, infine le autorità quando emergono violazioni. Se un portale come Phica (phica.eu) arriva a 56.532.141 visite complessive tra giugno 2022 e agosto 2025, non è per un singolo buco ma per una catena di omissioni e lentezze: moderazione blanda, procedure di segnalazione inefficaci, tempi di rimozione lunghi, scarsa pressione economica su chi monetizza l’audience.

Il secondo punto, altrettanto netto, è che le forze dell’ordine intervengono quando c’è rilievo penale o violazioni della privacy, ma la loro azione è davvero incisiva solo se supportata da segnalazioni circostanziate, cooperazione tecnica con i provider e una strategia coordinata che tocchi anche i flussi di denaro. Senza questo ecosistema — pubblico e privato — i portali tossici si spezzano in mirror, migrano di Paese, cambiano DNS e ricrescono. La tecnologia è un amplificatore: se trova contenuti sessisti ben impaginati, con SEO aggressiva e community attiva, li premia.

Nessuno sapeva nulla? I dati sul traffico dicono ben altro

Per capire il fenomeno di Phica.eu è bastato utilizzare dei normali strumenti SEO e la pagina WebArchive dove, a distanza di tempo, è possibile risalire a portali, pagine e categorie anche se il dominio in questione è stato smantellato.

Possibile che una pagina web con 1/2 milioni di visite al mese scappasse da qualsiasi tipo di controllo, in un’era in cui viviamo circondati da continui (e terribili) crimini digitali? Se stiamo messi così, il futuro e tutt’altro che roseo.

I numeri, presi mese per mese, raccontano una progressione che si spiega da sola. Si parte con 74.887 visite nel giugno 2022; nel 2023 il sito passa a ritmi di oltre 1,7–1,9 milioni al mese in autunno, con una sequenza che consolida la community e la visibilità; aprile 2024 segna il picco di circa 1.969.675 visite. Seguono una flessione in dicembre 2024 (circa 864 mila) e una ripartenza nel 2025: luglio torna sopra 1,1 milioni, agosto sfiora 1,21 milioni. Su tutto il periodo considerato, la somma fa 56,53 milioni di sessioni, una scala da media impresa dell’attenzione. In altre parole: non un incidente, ma un’industria a pieno regime.

Questa curva è coerente con la ricetta tecnica: titoli iper-ottimizzati che intercettano ricerche precise, risposta immediata all’intento in apertura, scroll infinito con immagini e clip che allungano la permanenza, thread chilometrici che moltiplicano i punti di ingresso da Google e dalle chat private. A ogni salita corrisponde un episodio che “accende” la community: un thread virale, un nome noto in tendenza, un pacchetto di link. La visibilità genera altra visibilità.

Dentro questa macchina, le ricerche confermano la direzione: decine di migliaia di query di brand + nome (“phica” affiancato a persone reali) e modificatori voyeuristici come “nuda”, “leaked”, “OnlyFans”, “OF”, “video”, “Instagram”, “Telegram”. Spiccano cantanti e artiste cercate a ripetizione — Annalisa, Rose Villain, Anna Pepe, Margot (nelle varianti “dj Margot” e “Margot profumi”) — insieme a presentatrici e volti TV come Diletta Leotta, Sonia Grey, Emanuela Botto, Valentina Persia. Accanto a loro attrici e creator molto giovani o iper-esposte sui social, per esempio Maria Esposito, Elisa Esposito, Samantha Frison, Aurora Travelli, oltre a influencer e modelle cercate in associazione a “OF” o “leak” (Michelle Comi, Krippymami, Benedetta Lolli, Dalila Stabile, Jasmy Love, Candy Giada). Il pattern è sempre lo stesso: nome proprio + promessa di nudità o materiale sottratto, un pendolo che oscilla tra curiosità e violazione.

Dove si interrompe il controllo: doveri e omissioni

Il primo presidio è l’editore del sito, che editore lo è anche se si definisce “semplice amministratore di forum”. Ha il dovere di stabilire regole effettive, di eliminare contenuti illegali o lesivi, di rispondere a segnalazioni qualificate con rimozioni rapide e tracciate, di chiudere gli account recidivi. Se la moderazione è affidata a volontari senza strumenti o, peggio, se il regolamento diventa foglia di fico per coprire l’inazione, è già sconfitta.

Poi ci sono hosting provider e registrar. Non giudicano nel merito, ma non sono spettatori. Le loro condizioni di servizio prevedono canali d’emergenza, gestione degli abusi, cooperazione con le autorità. Il problema è l’attrito: giurisdizioni diverse, server all’estero, rinvii per cavilli procedurali. Nel frattempo il contatore delle visite continua a correre. Quando il cliente porta molto traffico — e quindi soldi — la tentazione di chiudere un occhio è forte; è qui che servono policy applicate senza eccezioni.

Un altro snodo sono motori di ricerca e social che non ospitano i contenuti, ma li rendono raggiungibili. Hanno strumenti per deindicizzare pagine che ledono diritti, per ridurre la raccomandazione di contenuti borderline, per disattivare profili recidivi. Funziona se la segnalazione è specifica e documentata; funziona soprattutto se arriva un pacchetto organico, non mille urla disordinate. L’algoritmo non distingue il bene dal male: senza contesto, premia ciò che performa.

Ultimo tratto, la moneta. Un portale che accumula milioni di pageview campa di reti pubblicitarie parallele, affiliati, pop-under aggressivi. Qui la leva è concreta: chi compra quell’inventory ha una responsabilità, può escludere domini tossici, pretendere trasparenza sugli spazi, usare verifiche indipendenti. Quando i soldi smettono di arrivare, la convenienza a restare online svanisce più in fretta di qualunque banner.

Privacy e dignità: le stanze del sito dove la privacy evapora

Le copie su WebArchive mostrano la casa dall’interno, capitolo per capitolo, come in un condominio a porte aperte. All’ingresso c’è l’Introduzione e il Regolamento aggiornato, a seguire le bacheche generiche (“Forum generale”, “PhicaHelp”, “Racconti erotici”). Poi il percorso si stringe verso le aree critiche.

“PornoCittà” propone di “cercare o trovare persone della tua città”: qui la privacy è ridotta a geolocalizzazione sociale. Con pochi indizi — un quartiere, un profilo social, una foto — si prova a collegare identità digitali a persone reali. “La mia donna… senza certificazione!” invita a pubblicare immagini di partner senza verifica del consenso, normalizzando l’idea che il corpo di altri sia condivisibile per default. “Foto e Video a ore… Toccata e fuga!” sfrutta l’effetto effimero: si carica “a tempo”, si lascia intendere che il materiale sparirà. Sappiamo che non è così: niente svanisce davvero e i file rimbalzano su host terzi.

La sezione “Spy: Foto e Video” esplicita la pratica della ripresa occulta: scatti rubati, screen di chat private, storie pubblicate senza consenso. Nei capitoli su streaming e download fanno capolino thread su filehost, FTP aperti, raccolte “mai viste”: un bazar dove finisce di tutto, dai pacchetti di creator alle foto sottratte altrove. L’area VIP e spettacolo — con thread su cantanti, attrici e presentatrici — istituzionalizza la caccia al personaggio pubblico: nomi reali agganciati a promesse di materiale intimo, “paparazzate” trasformate in collezione. Accanto scorrono le vetrine OnlyFans e Camgirl certificate, i diari delle escort, le recensioni su performance e tariffe. In mezzo, la tecnologia usata come passepartout: tra i thread compare perfino l’istanza “[Cerco] AI per denudare gratis”, la richiesta esplicita di strumenti per creare deepfake o “ricostruire” nudità inesistenti. La morale è una: la privacy come materia prima, il consenso come optional.

Il ruolo della Polizia Postale: strumenti, limiti, risultati

Quando il fenomeno supera la soglia dell’illecito — diffusione non consensuale di immagini intime, minacce, stalking, trattamento illecito di dati — entrano in campo Polizia Postale e magistratura. Non si tratta di “spegnere Internet”, ma di applicare le leggi con strumenti tecnici adeguati: conservazione dei log, acquisizione forense, cooperazione con provider e piattaforme, oscuramenti mirati di pagine o domini, tracciamento dei pagamenti per risalire a chi monetizza. Gli interventi sono tanto più rapidi quanto più precise sono le denunce: URL specifici, date, screenshot, descrizione delle condotte. La differenza tra un fascicolo utile e un urlo nel vuoto sta tutta qui.

La repressione da sola, però, non basta. I portali si spostano di server, riaprono con mirror, cambiano registrar. È una guerra di attrito in cui vince chi resiste più a lungo. Ecco perché servono sinergie: oltre a polizia e procure, il Garante privacy per le sanzioni, l’Agenzia delle entrate quando emergono flussi in nero, le autorità di regolazione per gli aspetti di sicurezza digitale. Colpire la filiera economica spesso è più efficace che inseguire domini come mosche.

Sul fronte della prevenzione c’è lavoro costante: formazione, dialogo con le piattaforme, mappatura delle reti di siti “gemelli”, correlazione delle segnalazioni. È un artigianato lento ma decisivo: aumenta la qualità delle prove e riduce i tempi di risposta. E soprattutto sposta il baricentro: non più rincorrere il caso eclatante, ma asciugare l’ecosistema che lo rende conveniente.

L’ipocrisia collettiva: maschilismo online, maschilismo reale

Il caso Phica.eu è uno specchio. Riflette un Paese che si proclama moderno ma tollera linguaggi maschilisti quando divertono o portano clic. La narrazione ricorrente è quella dell’ironia: “si scherza”. In realtà si scherza sempre sulle stesse persone, quasi sempre donne, spesso minoranze, quasi mai sui potenti. L’apparente leggerezza è il guscio di un disprezzo normalizzato: si ride del corpo altrui, del consenso altrui, della vita altrui. La pornografia, in questo vocabolario, è pretesto; la posta in gioco è il controllo.

Le stesse ricerche lo dimostrano: cantanti, artiste e presentatrici vengono trascinate in un cono di luce che non hanno scelto, e i loro nomi restano associati — a lungo — a parole chiave aggressive. La domanda di massa produce offerta e indicizzazione; noi la alimentiamo con i clic, i salvataggi, i “passaparola” nelle chat. È l’ipocrisia che preferiamo non vedere: indignazione in pubblico, consumo in privato.

Cosa fare adesso: più velocità, più trasparenza, meno alibi

La cura non è un altro tavolo di buone intenzioni. Servono meccanismi pratici e misurabili. La velocità prima di tutto: finestre temporali certe per rispondere alle segnalazioni, contatti unici per hosting e registrar, feedback tracciabile a chi denuncia. Subito dopo la trasparenza: report pubblici su rimozioni, deindicizzazioni, sospensioni, ricorsi, con motivazioni comprensibili. Sapere quante richieste arrivano, quante vengono accolte e perché alcune vengono respinte crea responsabilità. Infine la leva economica: inserzionisti in grado di escludere con semplicità domini tossici dai piani media, reti pubblicitarie obbligate a rendicontare dove finiscono gli annunci e a sospendere i partner recidivi.

Per le persone colpite servono sportelli unici, guide chiare, aiuto gratuito almeno nelle prime fasi. Chi assiste le vittime — avvocati, associazioni, centri antiviolenza — sa che il tempo è tutto: bloccare la visibilità subito, deindicizzare in fretta, congelare gli archivi dove possibile. Le piattaforme possono potenziare i canali “fast lane” per soggetti vulnerabili, introdurre watermark e controlli di tracciabilità, limitare la ri-condivisione virale quando emergono pattern di abuso. Ogni minuto guadagnato è un pezzo di dignità salvato.

La scuola e i media hanno un altro compito, più lento ma decisivo: parlare di consenso senza slogan, spiegare perché “se pubblichi allora accetti” è una bugia, mostrare cosa significa non contribuire alla gogna anche quando la tentazione è forte. È un lavoro di pazienza, fatto di parole giuste nei momenti giusti. Quando questa sensibilità diventa maggioranza, i portali che lucrano sull’esposizione altrui perdono l’aria che respirano.

La rotta possibile: responsabilità condivisa, risultati misurabili

Se dobbiamo distillare una lezione, sta tutta qui: nessuno può chiamarsi fuori. I gestori devono moderare e rimuovere, hosting e registrar rispondere alle segnalazioni e interrompere i servizi in caso di abusi, motori di ricerca e social tagliare la visibilità dei contenuti lesivi, gli inserzionisti chiudere i rubinetti, le autorità coordinare indagini e oscuramenti quando ci sono reati. E noi, uno per uno, possiamo non regalare attenzione. Il resto sono alibi.

I 56,53 milioni di visite non sono un dettaglio: raccontano un’industria dell’umiliazione costruita con mezzi modesti e con la complicità dell’algoritmo. Le soluzioni esistono e non richiedono miracoli: regole applicate davvero, strumenti già disponibili, tempi certi, trasparenza e una cultura pubblica che smetta di scambiare l’aggressività per coraggio. Il giorno in cui un sito come Phica.eu cadrà prima di accumulare milioni di click, non perché qualcuno spegne l’interruttore a caso ma perché nessuno lo finanzia, nessuno lo indicizza e tutti lo riconoscono per quello che è, potremo dire di avere imparato davvero.

Fino ad allora, ricordiamo la cosa più semplice e più difficile: ogni click ha un prezzo. E lo paghiamo tutti, anche quando crediamo di essere solo spettatori.


🔎​ Contenuto Verificato ✔️

Questo articolo si basa su informazioni tratte da fonti ufficiali e affidabili in Italia, garantendone accuratezza e attualità. Fonti consultate: Polizia di Stato, Garanteprivacy.it, AGCOM, Governo.it, Centro D’AiScolta

Content Manager con oltre 20 anni di esperienza, impegnato nella creazione di contenuti di qualità e ad alto valore informativo. Il suo lavoro si basa sul rigore, la veridicità e l’uso di fonti sempre affidabili e verificate.

Trending