Perché un gruppo di bambini sta creando immagini pedopornografiche

« Older   Newer »
 
  Share  
.
  1.  
    .
    Avatar

    Burattinaia

    Group
    Founder
    Posts
    68,713
    Location
    Skysilvianet

    Status
    Offline
    Perché un gruppo di bambini sta creando immagini pedopornografiche con l’intelligenza artificiale
    È necessario adottare subito nuove misure prima che il materiale creato dai ragazzi si diffonda sul web. Una volta condivise le immagini potrebbero finire nelle mani sbagliate.

    Basta un prompt per generare qualsiasi cosa, anche immagini pedopornografiche. E dietro la fabbrica che sforna contenuti deepfake ci sono i bambini. Il Safer Internet Centre (UKSIC) del Regno Unito ha ricevuto strane segnalazioni dalle scuole: "Sembra che gli studenti stiano creando foto e filmati indecenti con l'intelligenza artificiale". Molto probabilmente, spiega il centro alla BBC, sono spinti dalla curiosità, eppure possedere e distribuire immagini pedopornografiche è illegale. Non solo, come ha sottolineato Victoria Green, amministratrice delegata della Marie Collins Foundation, ente di beneficenza che aiuta i bambini vittime di abusi sessuali: "Le immagini potrebbero anche non essere state create per causare danni ma, una volta condivise, questo materiale potrebbe finire nelle mani sbagliate, sui siti dedicati agli abusi, o utilizzato per ricattare le vittime".


    Una nuova ricerca, condotta su 1000 alunni dall’azienda tecnologica RM Technology, mostra che circa un terzo dei bambini usa l’intelligenza artificiale (IA) per guardare e creare "contenuti inappropriati" online. "L'uso regolare dell'IA da parte degli studenti non è una novità", ha spiegato Tasha Gibson, responsabile della sicurezza online presso l'azienda. "In effetti, la loro comprensione dell'intelligenza artificiale è più avanzata di quella della maggior parte degli insegnanti, si crea così un divario di conoscenze. Diventa sempre più difficile garantire la sicurezza degli alunni online e frenare l'uso improprio della tecnologia, colmare questo divario è una priorità assoluta”.

    Secondo l’UKSIC è necessario adottare subito nuove misure, prima che il problema si diffonda nelle scuole. Come ha spiegato il direttore del centro, David Wright: "I giovani non sono sempre consapevoli della gravità di ciò che stanno facendo, questi comportamenti pericolosi dovrebbero essere anticipati, occorre intervenire urgentemente per evitare che il materiale creato dai ragazzi si diffonda sul web".

    Le ragazze di Almendralejo
    A settembre 20 ragazze spagnole tra gli 11 e i 17 anni trovano sugli smartphone dei compagni di classe le loro foto senza vestiti. Almendralejo, un comune di Badajoz con circa 30.000 abitanti, diventa l'epicentro di un caso di deepfake. Il caso è stato raccontato su Instagram da Miriam Al Adib, ginecologa con 136.000 follower e madre di una delle vittime.

    Dopo la denuncia ha cominciato a ricevere messaggi di genitori che, come lei, avevano scoperto che le figlie erano state spogliate da un'app. Al canale Wales Live della BBC ha rivelato: "Centinaia di persone mi hanno scritto dicendomi che anche a loro era successa la stessa cosa e non avevano ricevuto alcun tipo sostegno". Solo il bot spagnolo ha quasi 50.000 abbonati che hanno pagato una tariffa per creare immagini di nudo con l'intelligenza artificiale.

    Il caso BikiniOff in Italia

    C'è stato un caso simile anche in Italia. Ad aprile infatti, in una scuola media in provincia di Roma, due ragazzi sono stati accusati di aver modificato cinque foto delle compagne di classe con l'app BikiniOff, e poi averle condivise. L'app funziona come un chat bot di Telegram: è nata in Francia e poi si è diffusa in tutto il mondo nel 2022, registrando numeri record di iscritti tra i ventenni. È in grado di creare foto false ma realistiche e per accedere non serve nemmeno l’autenticazione, questo vuol dire che chiunque, anche i minorenni, possono usarla.

    Bikini Off è diventata popolare proprio tra i banchi di scuola, ad aprile 2023 sono state segnalate 27 infrazioni e due adolescenti di 14 anni sono stati indagati per la produzione di materiale pedopornografico. Ai carabinieri avevano detto “è solo uno scherzo”.
     
    Top
    .
  2.  
    .
    Avatar

    Senior Member

    Group
    Member
    Posts
    16,582
    Location
    vaddavialcù

    Status
    Offline
    Si è voluta la Tecnologia

    avanti con la Tecnologia

    mia figlia mi ha fatto vedere un App sullo Smart che ti trasforma la faccia , ti fa ringiovanire o invecchiare , la faccia può essere trasformata in tutti i modi

    Normale che foto di ragazze possano essere trasformate nel nudo , oramai c'è il tutto e di più

    Dalla Tecnologia Informatica si pretende il massimo anche con Incontri a livello Mondiale tra Cervelloni

    Poi se succedono le puttanate non ci si deve lamentare
     
    Top
    .
  3.  
    .
    Avatar

    Advanced Member

    Group
    Member
    Posts
    6,544

    Status
    Offline
    Ormai la diffusione della pornografia è inarrestabile.
    Anche chi è contrario alla pornografia (personalmente sono favorevole) deve per forza arrendersi: nessuno la ferma più. E' come mettersi con le mani a bloccare l'enorme ondata che tracima dalla diga del Vajont.
    Dunque rassegnarsi: chiunque può essere anche a sua insaputa su siti porno.
     
    Top
    .
  4.  
    .
    Avatar

    Millennium Member

    Group
    Member
    Posts
    151,511
    Location
    Baden Wurttemberg

    Status
    Anonymous
    CITAZIONE (guglielmohostel @ 28/11/2023, 16:28) 
    Si è voluta la Tecnologia

    avanti con la Tecnologia

    mia figlia mi ha fatto vedere un App sullo Smart che ti trasforma la faccia , ti fa ringiovanire o invecchiare , la faccia può essere trasformata in tutti i modi

    Normale che foto di ragazze possano essere trasformate nel nudo , oramai c'è il tutto e di più

    Dalla Tecnologia Informatica si pretende il massimo anche con Incontri a livello Mondiale tra Cervelloni

    Poi se succedono le puttanate non ci si deve lamentare
     
    Top
    .
  5.  
    .
    Avatar

    Member

    Group
    Member
    Posts
    741

    Status
    Offline
    Non so cosa pensare.
    Dopo tutto sono immagini false, le ragazzine in questione non saranno esatta-te come raffigurate.
    Il problema è che chi le vede può non credere che sia così.

    Divertente vedere che tutta 'sta tecnologia crea soprattutto nuovi problemi 😂
     
    Top
    .
  6.  
    .
    Avatar

    Senior Member

    Group
    Member
    Posts
    14,278
    Location
    Quahog - Rhode Island

    Status
    Anonymous
    CITAZIONE (CiaoSilvia @ 28/11/2023, 16:07) 
    Perché un gruppo di bambini sta creando immagini pedopornografiche con l’intelligenza artificiale
    ?

    Risosta: perché sono idioti.
     
    Top
    .
  7.  
    .
    Avatar

    Member

    Group
    Member
    Posts
    741

    Status
    Offline
    CITAZIONE (Stewie © @ 3/12/2023, 19:33) 
    CITAZIONE (CiaoSilvia @ 28/11/2023, 16:07) 
    Perché un gruppo di bambini sta creando immagini pedopornografiche con l’intelligenza artificiale
    ?

    Risosta: perché sono idioti.

    Sono solo bambini.
    X loro il concetto di pudicizia non è palese.
    Ed alla loro età è giusto che sia così.
    Gl'idioti sono adulti che fanno queste medesime cose.
     
    Top
    .
6 replies since 28/11/2023, 16:07   122 views
  Share  
.
Top