با ورود به عصر هوش مصنوعی، خطرات اخلاقی بالاست. آنتروپیک، استارت آپی که توسط محققان سابق OpenAI رهبری می شود، این را تشخیص می دهد. آنها یک “قانون اساسی” اخلاقی برای چت بات خود، کلود، ایجاد کرده اند تا از ناوبری مسئولانه در دنیای دیجیتال اطمینان حاصل کنند. این حرکت جسورانه اصول متنوعی را در هم می آمیزد و به قدرت تحول آفرین هوش مصنوعی و خطرات احتمالی می پردازد.
بیایید عمیقتر به این «قانون اساسی» جذاب و پیامدهای آن برای هوش مصنوعی بپردازیم و کلود آنتروپیک را با ChatGPT هوش مصنوعی باز مقایسه کنیم.
قانون اساسی کلود: چارچوبی اخلاقی برای هوش مصنوعی
«قانون اساسی» کلود با وام گرفتن از منابع ناهمگون مانند اعلامیه جهانی حقوق بشر سازمان ملل متحد و مقررات توسعه اپلیکیشن اپل، گواهی بر ادغام خلاقانه اخلاق و فناوری است.
این قانون اساسی زینتی نیست، ابزاری است. این زیربنای فرآیندهای شناختی کلود است، تصمیم گیری آن را آگاه می کند و مرزهایی را برای تعاملات تعیین می کند. تصور کنید یک برنامه کامپیوتری در حال خواندن آن است کنوانسیون های ژنو قبل از تصمیم به حذف یک فایل این همان نوع تلاش و کوشش اخلاقی است که کلود برای آن طراحی شده است.
به عنوان مثال، زمانی که با معضل حفظ حریم خصوصی کاربر در مقابل ارائه خدمات شخصیسازی شده مواجه میشوید، قانون اساسی کلود را راهنمایی میکند تا محرمانگی کاربر را در اولویت قرار دهد و از تاکید سازمان ملل بر حق حفظ حریم خصوصی استفاده کند.
حرکت فراتر از قوانین سخت: رویکرد آنتروپیک به هوش مصنوعی اخلاقی
رویکرد آنتروپیک از پارادایم سنتی قوانین سخت جدا می شود. آنها صرفاً به دنبال برنامه نویسی نیستند کلود با فهرستی جامع از بایدها و نبایدها. در عوض، تمرکز آنها در تعبیه اصول اخلاقی در کلود با استفاده از تقویت است. یادگیری.
این را تصور کنید: وقتی کودک بدرفتاری می کند، ما فقط او را تنبیه نمی کنیم. ما توضیح می دهیم که چرا این عمل اشتباه بوده و کودک را به سمت رفتار قابل قبول تر هدایت می کنیم. این همان فلسفه آموزشی است که Anthropic در مورد کلود اعمال می کند.
برای مثال، اگر کلود پاسخی را پیشنهاد کند که با دستورالعملهای اخلاقی آن تناقض دارد، نه تنها مورد سرزنش قرار میگیرد، بلکه اقدام اخلاقی مناسب را نیز نشان میدهد. با گذشت زمان، کلود یاد می گیرد که رفتار خود را با اصول اخلاقی خود هماهنگ کند.
ChatGPT در مقابل کلود: یک مطالعه مقایسه ای
ChatGPT OpenAI و Claude Anthropic دو پیشروی در مکالمه مبتنی بر هوش مصنوعی را نشان می دهند.
- ChatGPT: پشتیبانی شده توسط OpenAI’s GPT-3، ChatGPT با توانایی خود در تولید متنی شبیه به انسان، نامی برای خود دست و پا کرده است. بر اساس یک معماری ترانسفورماتور، از یادگیری بدون نظارت بر روی مجموعه عظیمی از متن اینترنتی برای ارائه پاسخ ها استفاده می کند. ChatGPT درک یا باورهای ذاتی ندارد، اما با پیشبینی کلمه بعدی در یک جمله بر اساس زمینه، درک را تقلید میکند.
- کلود: کلود آنتروپیک، از سوی دیگر، بر اساس یک پیشنهاد منحصر به فرد ساخته شده است. این نه تنها بر ایجاد پاسخ های منسجم تمرکز می کند، بلکه به یک قانون اساسی اخلاقی نیز پایبند است. این چارچوب تصمیم گیری کلود را هدایت می کند و هدف آن هماهنگ کردن بیشتر از نظر اخلاقی است. حالت عملیاتی آن به جای پاسخهای مبتنی بر پیشبینی صرف، به یادگیری تقویتی گرایش دارد.
- مقایسه ها: هدف ChatGPT و Claude هر دو گفتگوی پیچیده و شبیه انسان است. آنها نمایشی چشمگیر از پتانسیل هوش مصنوعی در درک و تولید زبان هستند. آنها هر دو از مقادیر زیادی از داده های آموزشی و الگوریتم های قدرتمند استفاده می کنند.
- تضادها: تفاوت اصلی در رویکرد آنها به ملاحظات اخلاقی نهفته است. ChatGPT، اگرچه بسیار پیشرفته است، اما چارچوب اخلاقی خاصی برای هدایت پاسخ های خود ندارد. در همین حال، کلود قانون اساسی دارد که تعاملات آن را شکل می دهد و به طور بالقوه هوش مصنوعی مسئولیت پذیرتری را ارائه می دهد. رویکرد یادگیری تقویتی Anthropic نیز با مدل مبتنی بر پیشبینی ChatGPT متفاوت است و احتمالاً منجر به پویایی مکالمه متفاوت میشود.
در حالی که ChatGPT و Claude هدف مشترکی برای تقویت مکالمه هوش مصنوعی دارند، آنها استراتژی های متفاوتی را نشان می دهند. تضاد آنها جنبه های جذاب توسعه هوش مصنوعی و تلاش مداوم برای هوش مصنوعی اخلاقی را روشن می کند. علاوه بر این، ChatGPT یک موفقیت فوری بود، در حالی که Claude هنوز در حال عرضه است.
آینده هوش مصنوعی اخلاقی
آزمایش آنتروپیک پیامدهای عظیمی برای جامعه گسترده تر هوش مصنوعی دارد. این یک الگوی جذاب برای توسعه هوش مصنوعی اخلاقی، یک مدل مبتنی بر قانون اساسی ارائه می دهد.
با این حال، مانند همه مدل ها، محدودیت های خود را دارد. اول، مسئله نسبی گرایی فرهنگی مطرح است. آنچه را که یک فرهنگ اخلاقی میداند، ممکن است توسط دیگری به گونهای متفاوت دیده شود. اطمینان از قابل اجرا بودن قانون اساسی کلود در سراسر جهان یک وظیفه هرکول است.
علاوه بر این، خطر تعصب ریشهدار وجود دارد. قانون اساسی کلود که محصول طراحی انسان است، ممکن است ناخودآگاه تعصبات خالقان آن را منعکس کند. برای مقابله با این چالشها، پرورش ورودیهای متنوع و بحثهای قوی در جامعه هوش مصنوعی بسیار مهم است.
تلاش های آنتروپیک بر ضرورت مشارکت جامعه در هوش مصنوعی تاکید می کند اخلاق. رویکرد قانون اساسی پیشگام است، اما همچنین اهمیت گفت و گوی جمعی را برجسته می کند. واضح است که مسیر رسیدن به هوش مصنوعی اخلاقی نه تنها شامل غولهای فناوری و استارتآپها، بلکه سیاستگذاران، اخلاقگراها و کاربران روزمره نیز میشود.
این سفر پیچیده است و نقشه راه نامشخص است، اما تلاشهای آنتروپیک نگاهی اجمالی به مقصد دارد: یک اکوسیستم هوش مصنوعی که نه تنها از نظر فنی پیشرفته است، بلکه از نظر اخلاقی نیز آگاه است. این چشم انداز گسترده، پر از نوید و چالش است، و کاوش جمعی ما را تضمین می کند.
The post Ethical AI: Anthropic’s Claude vs. ChatGPT اولین بار در BeInCrypto ظاهر شد.