Tipgever Gearresteerd Nadat Federale Overheid AI-kinderexploitatiebeelden Vond En Plannen Had Om VR CSAM Te Maken INDIGNATIE AI & Politiek


Spread the love en help Indignatie

Uit onderzoek van de telefoon van een tipgever bleek dat er sprake was van ‘echt’ seksueel misbruik van kinderen, vermengd met seksueel misbruik van kinderen met kunstmatige intelligentie (AI), en dat er sprake was van een duisterdere betrokkenheid bij de zaak.

AI – Een man uit Alaska die de politie tipte over een piloot die geïnteresseerd was in kinderporno, werd gearresteerd toen de autoriteiten zijn telefoon doorzochten en virtual reality-beelden van minderjarigen vonden. In een interview met de politie zei de tipgever dat hij ook AI-materiaal over seksueel misbruik van kinderen had gedownload, maar dat er soms ‘echte’ beelden tussen zaten.

Volgens nieuw ingediende aanklachtdocumenten nam Anthaney O’Connor in augustus contact op met de politie om hen te waarschuwen voor een niet-geïdentificeerde piloot die kindermisbruikmateriaal (CSAM) deelde met O’Connor. Tijdens het onderzoek naar de misdaad en met toestemming van O’Connor, doorzochten federale autoriteiten zijn telefoon naar aanvullende informatie. Een onderzoek van de elektronica onthulde dat O’Connor naar verluidt aanbood om virtual reality CSAM te maken voor de piloot, aldus de strafrechtelijke aanklacht. 

Uit de rechtbankverslagen blijkt dat de piloot een afbeelding van een kind in een supermarkt deelde en dat de  twee personen bespraken hoe ze een expliciet virtual reality-programma van de minderjarige konden maken. O’Connor zou het codewoord ‘cheese pizza’ hebben gebruikt om de afbeeldingen te beschrijven en zou hebben opgemerkt dat hij de afbeelding voor 200 dollar kon maken. Hij vertelde de piloot dat hij een online versie van een pool aan het maken was, waar hij een door AI gecreëerde afbeelding van het kind uit de supermarkt kon plaatsen. 

AI
Tekstberichten van de rechtszaak.

Documenten zeggen dat O’Connor minstens zes door AI gecreëerde afbeeldingen bezat, naast een half dozijn ‘echte’ CSAM-afbeeldingen en -video’s. In een interview met de politie afgelopen donderdag vertelde O’Connor de autoriteiten dat hij “onbedoeld ‘echte’ afbeeldingen downloadde.” Uit gerechtelijke documenten blijkt dat hij de autoriteiten ook vertelde dat hij “CSAM zou melden bij internetproviders, maar dat hij nog steeds seksueel werd bevredigd door de afbeeldingen en video’s.”

Bij een huiszoeking werd een computer in zijn kamer gevonden en meerdere harde schijven die verborgen waren in de ventilatieopening van een huis. In een memo over detentie die gisteren werd ingediend, zegt het ministerie van Justitie dat een eerste onderzoek van O’Connors computer een video van 41 seconden van een kinderverkrachting aan het licht bracht.

404 Media heeft eerder geschreven over de manier waarop het creëren van door AI gegenereerd kindermisbruikmateriaal geen ‘slachtofferloos’ misdrijf is, deels omdat er vaak echte beelden van echte slachtoffers in kunnen worden vermengd.

AI
Een screenshot van de rechtszaak.

Het ministerie van Justitie heeft de arrestaties van personen die in het bezit zijn van door AI gecreëerde CSAM-afbeeldingen opgevoerd. In mei 2024 berichtten Court Watch en 404 Media over de eerste arrestatie in zijn soort van een man uit Wisconsin die “Stable Diffusion gebruikte om duizenden realistische afbeeldingen van prepuberale minderjarigen te maken”

Het Amerikaanse Openbaar Ministerie in Alaska, dat de zaak vervolgt, weigerde commentaar te geven buiten wat er in de aanklachtdocumenten stond. Een advocaat die O’Connor vertegenwoordigt, reageerde niet onmiddellijk op een verzoek om commentaar. Maandag beval een federale rechter dat O’Connor zou worden vastgehouden in afwachting van een verdere hoorzitting op 6 januari.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *