وزارت دادگستری مدعیست که این فرد از دستورات ( پرامپت های) مشخصی، از جمله پرامپت های منفی (ارائه راهنمایی مضاعف به مدل هوش مصنوعی درباره اینکه چه چیزی را تولید نکند) استفاده کرده است تا مولد موردنظر را به سمت ساخت آن CSAM سوق دهد.
به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از ایتنا وزارت دادگستری آمریکا مردی از ویسکانسین را به دلیل تولید و توزیع متریال آزار جنسی کودکان (CSAM) تولید شده توسط هوش مصنوعی دستگیر کرد. به نظر میرسد که این اولین مورد از نوع خود باشد زیرا وزارت دادگستری در صدد ایجاد یک بنیان قضایی است بر این اساس که متریالهای مرتبط با آزار حتی زمانی که در واقع هیچ کودکی برای تولید آنها استفاده نشده باشد همچنان غیرقانونی هستند.
به نقل از انگجت، معاون دادستان کل لیزا موناکو در بیانیهای مطبوعاتی نوشت: «به زبان ساده، CSAM تولید شده توسط هوش مصنوعی همچنان CSAM است.
در اطلاعیه وزارت دادگستری آمده است که یک مهندس نرمافزار 42 ساله به نام استیون آندرگ از شهر هولمن، در ایالت ویسکانسین، از یکی از انشعابات (فورکهای) منبعباز مولد تصویر هوش مصنوعی Stable Diffusion برای ساختن این تصاویر استفاده کرد، که سپس از آن برای اغفال یک پسر خردسال به سمت موقعیتهای جنسی استفاده کرد. همین مورد اخیرالذکر احتمالاً نقش اصلی را در محاکمه نهایی برای چهار فقره «تولید، توزیع، و داشتن تصاویر مستهجن از افراد زیر سن قانونی درگیر در رفتار جنسی صریح و انتقال مطالب مستهجن به یک خردسال زیر 16 سال» ایفا خواهد کرد.
وزارت دادگستری مدعیست که این فرد از دستورات ( پرامپت های) مشخصی، از جمله پرامپت های منفی (ارائه راهنمایی مضاعف به مدل هوش مصنوعی درباره اینکه چه چیزی را تولید نکند) استفاده کرده است تا مولد موردنظر را به سمت ساخت آن CSAM سوق دهد.
تولیدکنندههای تصویر مبتنی بر ابر مانند Midjourney و DALL-E 3دیفی در برابر این نوع فعالیتها تدابیر امنیتی دارند، اما، بنا به گزارش وبسایت Ars Technica، ظاهراٌ آندرگ از ورژن Stable Diffusion 1.5 استفاده کرده است که محدودیتهای کمتری را لحاظ میکند. شرکت Stability AI به این وبسایت توضیح داده است که این فورک توسط Runway ML تولید شده است.