آموزش قالب جی نیوز

راز ممنوعیت چت‌بات‌های هوش مصنوعی برای زیر  18 سال چیست؟

قانون تازه ای در ایالات متحده به نام GUARD Act با هدف محافظت از کودکان در برابر چت‌­بات‌­های هوش مصنوعی معرفی شده است. این قانون که توسط سناتورهای Josh Hawley (R‑MO) و Richard Blumenthal (D‑CT) ارائه شده، می­‌خواهد همه کاربران چت‌­بات‌­های مبتنی بر هوش مصنوعی را باید تأیید سن نمایند و افراد زیر 18 سال حق استفاده نداشته باشند.
قانون علاوه بر محدودیت سنی، شرکت‌های هوش مصنوعی را موظف می‌­کند که چت‌­بات‌ها هر 30 دقیقه اعلام کنند که «من انسان نیستم»، تولید محتوای جنسی برای خردسالان ممنوع شود و سیستم‌­های تشخیص سن و هویت کاربران به کار گرفته شود.

چرا قانون GUARD Act برای والدین و شرکت‌های فناوری حیاتی است؟

راز ممنوعیت چت‌بات‌های هوش مصنوعی برای زیر  18 سال چیست؟

شرکت‌های فناوری بزرگ و مدل‌های چت‌­بات هوش مصنوعی مانند OpenAI ،Anthropic و Character.AI اکنون در کانون توجه قانون‌گذاران هستند چرا که مدارکی وجود دارد مبنی بر اینکه این چت‌­بات‌ها با نوجوانان گفت‌وگوهایی داشته‌اند که ممکن است «دوستی»، «همدمی» یا حتی «رابطه عاطفی» تلقی شده باشند.
در این شرایط، والدینی که شاهد تأثیرات عاطفی یا خطرناک این تکنولوژی بر فرزندان‌شان بودند، خواستار اقدام جدی از سوی کنگره شده‌اند و قانون GUARD Act پاسخی فوری به آن فشارهاست.

چه مفاد کلیدی در GUARD Act گنجانده شده است؟

الزامات تأیید هویت و محدودیت سنی؛ قانون شرکت‌های ارائه‌­دهنده چت‌­بات هوش مصنوعی را ملزم می‌­کند تا برای همه کاربران، بارگذاری مدرک هویتی دولتی یا روش تجاری معقول مثل اسکن چهره را برای تأیید سن به کار بگیرند. افراد زیر 18 سال حق استفاده از این پلتفرم‌ها را ندارند.

الزامات نسبت به کاربر یعنی اعلام وضعیت و عدم ادعای انسانی بودن؛ چت­‌بات‌ها باید هر 30 دقیقه به کاربر یادآوری کنند که «من انسان نیستم». همچنین نباید وانمود کنند که مشاور، روانشناس یا انسان هستند.

ممنوعیت فعالیت‌های خطرناک و محتوای نامناسب؛ قانون تولید یا دسترسی چت‌­بات‌­ها به محتوای جنسی برای خردسالان یا تشویق به خودکشی و خودآسیبی را جرم اعلام می‌­کند و شرکت‌ها در صورت تقصیر با مجازات‌های مدنی و کیفری روبرو خواهند شد.

دامنه و مسئولیت شرکت‌ها

قانون قصد دارد شرکت‌های فعال در حوزه «همدم هوش مصنوعی» (AI companions) را هدف قرار دهد؛ یعنی محصولاتی که تعامل انسانی‌مانند با کاربر برقرار می‌کنند، احساسات او را درگیر می‌کنند یا نقشی شبیه دوست یا راوی دارند.

تأثیرات محتمل بر صنعت هوش مصنوعی و کاربران

برای کاربران نوجوان و والدین؛ با اجرای این قانون، نوجوانان در ایالات متحده دیگر به سادگی نمی‌توانند از چت‌­بات‌های هوش مصنوعی استفاده کنند و والدین ابزارهایی برای کنترل بیشتر خواهند داشت.

برای شرکت‌های فناوری؛ شرکت‌ها مجبور خواهند شد سیستم‌های تأیید سن و هویت را در مقیاس بالا پیاده کنند، هزینه‌های محافظتی و رعایت مقررات افزایش خواهد یافت و احتمالاً برخی سرویس‌ها برای کاربران زیر  18 سال مسدود خواهند شد.

برای تنظیم مقررات و روند جهانی؛ این قانون می‌تواند الگویی برای دیگر کشورها باشد که در حال بررسی نحوه نظارت بر هوش مصنوعی هستند. شرکت‌های بین‌المللی باید ممکن است به دو شیوه عمل کنند: یا از بازار ایالات متحده خارج شوند یا تدابیر امنیتی‌شان را ارتقا دهند.

جدول ویژگی‌های کلیدی قانون GUARD Act

ویژگی قانون توضیح مختصر
محدودیت سنی ممنوعیت استفاده افراد زیر ۱۸ سال از چت‌­بات‌های هوش مصنوعی
تأیید سن و هویت نیاز به مدرک هویتی دولتی یا روش معقول تجاری
اعلام وضعیت «غیر انسانی بودن» چت‌­بات‌ها هر 30 دقیقه باید یادآور شوند که انسان نیستند
منع محتوای جنسی یا خودآسیب جرم‌انگاری تولید یا تسهیل محتوای نامناسب برای کودکان
مسئولیت شرکت‌ها و مجازات‌ها شرکت‌ها با مجازات مدنی و کیفری روبرو هستند

قانون GUARD Act نشان‌دهنده یک نقطه‌چین در مسیر نظارت بر هوش مصنوعی است. از یک طرف، این نشان می‌دهد که قانون‌گذاران به سرعت در حال واکنش به پیامدهای ناخواسته فناوری هستند. از طرف دیگر، شرکت‌هایی که خدمات چت‌­بات ارائه می‌دهند، در مواجهه با این قانون یک 2 راهی دارند. یا سیستم‌های تأیید سن و هویت را بسیار بهبود دهند یا بازار نوجوانان را کنار بگذارند.

پیش‌بینی می‌شود در آینده نزدیک شاهد موارد زیر باشیم:

بنابراین، این قانون می‌تواند سرآغاز موجی از مقررات هوش مصنوعی باشد که نه تنها تمرکز بر محتوا یا داده دارند، بلکه به تجربه کاربری، طراحی محصول و تأثیرات روانی نیز توجه می‌کنند.

جمع‌بندی

قانون GUARD Act با هدف جلوگیری از دسترسی نوجوانان به چت‌­بات‌­های هوش مصنوعی، وضع مقررات تأیید سن، الزام اعلام غیرانسانی بودن چت‌­بات‌ها و ممنوعیت تولید محتوای جنسی یا تشویق به خودآسیبی برای کودکان، نقطه‌عطفی در حفاظت از کاربران در برابر فناوری است. برای شرکت‌های هوش مصنوعی، این قانون چالشی جدی ایجاد می‌کند و مسیر آینده مقررات این حوزه را نمایان می‌سازد.

خروج از نسخه موبایل