تیم تحریریه استاد آیتی گزارش می دهد: در عصری که فناوری هوش مصنوعی به سرعت در حال نفوذ به لایه های مختلف زندگی ما است، تضمین ایمنی و رفاه کاربران جوان به یکی از دغدغه های اصلی شرکت های پیشرو تبدیل شده است. OpenAI، خالق مدل های زبان بزرگ مانند GPT و سرویس محبوب ChatGPT، با معرفی یک مدل پیش بینی سن با هوش مصنوعی (AI Age Prediction Model) برای طرح های مصرف کننده خود، گامی قاطع در این مسیر برداشته است. این رویکرد جدید، که بر مبنای اصول “طرح ایمنی نوجوانان” (Teen Safety Blueprint) و “اصول رفتار مدل برای زیر ۱۸ سال” (Under-18 Principles for Model Behavior) بنا شده است، تلاش می کند تا تجربه کاربری را بر اساس سن تخمینی فرد تنظیم کند.
این اقدام نه تنها نشان دهنده تعهد OpenAI به مسئولیت اجتماعی است، بلکه یک پاسخ فنی به چالش های پیچیده تعامل نوجوانان با فناوری های مولد محسوب می شود. هدف این است که نوجوانان از فرصت های آموزشی و خلاقانه هوش مصنوعی بهره مند شوند، در حالی که از محتوای حساس یا بالقوه مضر دور بمانند. این مدل به طور خاص برای تعیین اینکه آیا یک حساب کاربری به احتمال زیاد متعلق به فردی زیر ۱۸ سال است یا خیر، طراحی شده است.
چرا پیش بینی سن در هوش مصنوعی اهمیت دارد؟
چالش های ایمنی کاربران زیر ۱۸ سال
فناوری های هوش مصنوعی مولد، با وجود پتانسیل های عظیم، می توانند محتوایی تولید کنند که برای ذهن در حال رشد نوجوانان نامناسب باشد. این محتوا می تواند شامل خشونت گرافیکی، تصاویر جنسی، یا ترویج رفتارهای پرخطر باشد. از منظر اخلاق هوش مصنوعی (AI Ethics) و حکمرانی داده (Data Governance)، شرکت ها موظفند تا تدابیر ویژه ای برای حفاظت از این گروه سنی اتخاذ کنند. در غیاب یک سیستم قوی تایید هویت دیجیتال (Digital Identity Verification)، پیش بینی سن به یک ابزار حیاتی برای اعمال این محدودیت ها تبدیل می شود.
رویکرد OpenAI: تعادل میان دسترسی و حفاظت
رویکرد OpenAI در این زمینه، برقراری یک تعادل ظریف میان فراهم کردن دسترسی کامل برای بزرگسالان و اعمال حفاظتهای ضروری برای نوجوانان است. کاربرانی که در هنگام ثبت نام سن خود را زیر ۱۸ سال اعلام می کنند، به طور خودکار تحت تدابیر حفاظتی قرار می گیرند. اما این مدل پیش بینی سن، برای حساب هایی به کار می رود که سن آنها نامشخص است یا نیاز به بررسی مجدد دارند. این تمایز، به بزرگسالان اجازه می دهد تا از ابزارهای هوش مصنوعی بدون محدودیت های غیرضروری استفاده کنند، در حالی که ایمنی نوجوانان تضمین می شود.
مکانیسم عملکرد مدل پیش بینی سن ChatGPT
مدل پیش بینی سن با هوش مصنوعی ChatGPT یک سیستم پیچیده است که صرفاً به اطلاعات اعلام شده توسط کاربر اکتفا نمی کند. این مدل از یک ترکیب هوشمندانه از سیگنال های رفتاری (Behavioral Signals) و داده های حساب کاربری (Account Data) برای تخمین سن استفاده می کند. این رویکرد چندوجهی، دقت پیش بینی را به طور قابل توجهی افزایش می دهد.
سیگنال های رفتاری و داده های حساب کاربری
برخی از مهم ترین سیگنال هایی که این مدل مورد بررسی قرار می دهد عبارتند از:
- عمر حساب کاربری: مدت زمانی که از ایجاد حساب گذشته است.
- الگوهای زمانی فعالیت: ساعات اوج فعالیت کاربر در طول شبانه روز.
- الگوهای استفاده در طول زمان: نحوه و میزان استفاده از سرویس در بازه های زمانی مختلف.
- سن اعلام شده توسط کاربر: اطلاعاتی که کاربر در ابتدا ارائه کرده است.
این فرآیند به عنوان یک گلاسری تخصصی در حوزه یادگیری ماشین (Machine Learning) و امنیت سایبری (Cybersecurity) مطرح است. استقرار این مدل به OpenAI کمک می کند تا سیگنال هایی را که بیشترین تاثیر را در افزایش دقت دارند، شناسایی کرده و مدل را به طور مستمر بهبود بخشد.
نقش سرویس Persona در تایید هویت
یکی از نکات کلیدی در این رویکرد، وجود یک راهکار ساده و سریع برای کاربرانی است که به اشتباه در دسته زیر ۱۸ سال قرار گرفته اند. این کاربران می توانند از طریق سرویس Persona، که یک سرویس امن برای تایید هویت (Identity Verification) است، سن خود را با استفاده از یک عکس سلفی تایید کنند. این مکانیسم، اطمینان می دهد که محدودیت های اعمال شده، دسترسی بزرگسالان را به طور ناخواسته مختل نمی کند. کاربران می توانند این فرآیند را در بخش تنظیمات حساب کاربری خود آغاز کنند.
حفاظتهای اعمال شده برای کاربران نوجوان
هنگامی که مدل پیش بینی می کند یک حساب کاربری متعلق به فردی زیر ۱۸ سال است، ChatGPT به طور خودکار حفاظت های اضافی (Additional Protections) را اعمال می کند. این حفاظت ها با هدف کاهش مواجهه نوجوانان با محتوای حساس طراحی شده اند و شامل محدودیت هایی در زمینه های زیر هستند:
- خشونت گرافیکی: محتوای حاوی خشونت شدید یا خونریزی.
- چالش های ویروسی پرخطر: چالش هایی که می توانند نوجوانان را به رفتارهای پرخطر یا مضر تشویق کنند.
- نقش آفرینی های جنسی، عاشقانه یا خشونت آمیز: محدودیت در سناریوهای نقش آفرینی هوش مصنوعی (AI Role-Playing) که محتوای نامناسب دارند.
- تصاویر خودآزاری: محتوایی که خودآزاری را به تصویر می کشد.
- ترویج استانداردهای زیبایی افراطی: محتوایی که رژیم های ناسالم یا بدن نمایی (Body Shaming) را ترویج می کند.
این رویکرد بر اساس ورودی های تخصصی و ادبیات آکادمیک در مورد رشد کودک (Child Development) و تفاوت های شناخته شده نوجوانان در درک ریسک، کنترل تکانه و تنظیم هیجانی استوار است.
چشم انداز آینده و تعهد به بهبود مستمر
کارشناسان استاد آی تی معتقدند که این اقدام OpenAI یک نقطه عطف مهم در حوزه مسئولیت پذیری هوش مصنوعی (AI Accountability) است. با توجه به اینکه دقت مدل های پیش بینی سن هوش مصنوعی به طور مستقیم بر تجربه کاربری و ایمنی میلیون ها نوجوان تاثیر می گذارد، بهبود مستمر این مدل حیاتی است. OpenAI اعلام کرده است که از بازخوردها و سیگنال های دریافتی از مرحله اولیه پیاده سازی برای افزایش دقت مدل در طول زمان استفاده خواهد کرد. این شرکت همچنین در حال همکاری با متخصصانی مانند انجمن روانشناسی آمریکا و شبکه جهانی پزشکان است تا رویکردهای خود را تقویت کند.
برای مثال، در اتحادیه اروپا، این مدل با در نظر گرفتن الزامات منطقه ای و قوانین حفاظت از داده ها (Data Protection) در هفته های آتی عرضه خواهد شد. این موضوع نشان دهنده اهمیت انطباق منطقه ای (Regional Compliance) در استراتژی های جهانی شرکت های فناوری است.
منبع:
Our approach to age prediction.prediction

