اخلاق و قانون در عصر هوش مصنوعی

کد مطلب: ۳۵۸۸۸۱
اخلاق و قانون در عصر هوش مصنوعی

محسن کریمی، مدیر ارتباطات بانک خاورمیانه در یادداشتی مسئله هوش مصنوعی و اثرات آن را به دقت بیان کرده است.

برای مشاهده جدیدترین اخبار کسب و کار کاماپرس را در اینستاگرام دنبال کنید.

به گزارش کاماپرس، طبق یادداشت کریمی در آژانس خبری پی‌آر، موضوع “از کنترل خارج شدن هوش مصنوعی” یکی از محبوب‌ترین و هشداردهنده‌ترین سوژه‌ها در ادبیات و سینمای علمی-‌تخیلی است. نویسندگانی مانند آیزاک آسیموف و ویلیام گیبسون موضوع فرابشری شدن توان هوش مصنوعی و تصمیم‌گیری خودمختارانه ابزارها و ربات‌ها را سوژه داستان‌های خود قرار داده‌اند. نیک باستروم نیز با نگاهی آینده‌پژوهانه و با تکیه بر فلسفه علم در فضایی غیرتخیلی سناریوهایی را مطرح می‌کند که در آنها هوش مصنوعی پیشرفته از کنترل انسان خارج می‌شود و می‌تواند سرنوشت تمدن بشری را تغییر دهد.

اخبار مرتبط را بخوانید:

فیلم‌سازانی مانند استنلی کوبریک و الکس گارلند نیز همین دغدغه و استیلای ماشین بر انسان را به تصویر کشیده‌اند. در فیلم‌هایی همچون ۲۰۰۱: ادیسه فضایی، اکس‌ماکینا، ماتریکس و ترمیناتور تقابل و بهره‌برداری هوش مصنوعی از نسل بشر به‌صورت اغراق‌آمیز تصویر شده است؛ در این داستان‌ها، ماشین به‌حدی از خودآگاهی فلسفی می‌رسد که دیگر تعامل با انسان‌ها را ناکافی و بی‌معنا می‌داند.

اخیرا اصطلاح “اسلاپر” (slopper) متداول شده است که به کسانی اطلاق می‌شود که در مواجهه با هر سوالی فورا به‌سراغ هوش مصنوعی می‌روند؛ شیوع این نوع رفتارها مسیر تسلط ماشین بر انسان را هموارتر می‌کند. اکنون در میان هیاهوی تحولات فناورانه و ذوق‌زدگی از توانایی‌های هوش مصنوعی، سوال بنیادی‌تری در حال شکل‌گیری است: آیا ما به‌همان اندازه که در توسعه هوش مصنوعی شتاب گرفته‌ایم، برای جنبه اخلاقی و قانونی آن نیز فکری کرده‌ایم؟ آیا وابسته شدن انسان به ابزارهای هوش مصنوعی او را اسیر این فناوری خواهد کرد؟

هوش مصنوعی با تکیه بر داده‌های تاریخی آموزش می‌بیند؛ اما این داده‌ها خود بازتاب‌دهنده نابرابری‌های اجتماعی و اقتصادی گذشته هستند، درنتیجه خروجی هوش مصنوعی نیز تابع همان روایت تاریخی تبعیض‌آمیز است. فناوری‌هایی نظیر دیپ‌فیک (Deepfake) که با استفاده از هوش مصنوعی تصاویر، صداها و ویدئوهای جعلی اما واقعی‌نما تولید می‌کنند، دنیای اطلاعات را با بحرانی بی‌سابقه روبه‌رو کرده است. مرز میان واقعیت و دروغ روزبه‌روز مبهم‌تر می‌شود.

براساس یادداشت کریمی در سایت پی‌آر، موضوع مهمی که در مورد هوش مصنوعی منبع نگرانی است، پردازش و بهره‌برداری از داده‌های شخصی افراد است؛ از تاریخچه جست‌وجوی اینترنتی گرفته تا علائق خرید، موقعیت مکانی، رفتارهای مالی و حتی روابط شخصی. هوش مصنوعی با دسترسی به این اطلاعات می‌تواند خدمات و پیشنهادهای شخصی‌سازی‌شده به افراد بدهد ولی سوءاستفاده از این اطلاعات پردازششده نیز خطر بزرگی برای افراد در پی دارد. اگر این داده‌ها به بیرون درز کند یا از آنها سوءاستفاده شود، چه سازوکارهای قانونی برای حمایت از افراد وجود دارد؟ هنوز چارچوب‌های قانونی منسجمی برای نحوه جمع‌آوری، نگهداری، تحلیل و حذف داده‌های شخصی وجود ندارد. قانونگذاری جامع در زمینه محافظت از داده‌ها، حقی ضروری برای شهروندان دیجیتال قرن بیست‌و‌یکم است.

در بسیاری از موارد، تصمیماتی که توسط هوش مصنوعی اتخاذ می‌شوند، بر زندگی واقعی انسان‌ها تاثیر می‌گذارند؛ از رد شدن وام بانکی گرفته تا ارزیابی رزومه یا عملکرد کارکنان یا درخواست ویزا. اگر اشتباه یا تبعیضی رخ دهد یا با استفاده از الگوریتم‌های تشخیص بتوان هوش مصنوعی را فریب داد، مسئولیت آن با چه کسی است؟

به نظر می‌رسد قانونگذاران در کنار توجه به مقررات ناظر به فناوری باید بستری برای هدایت اخلاقی، تقویت اعتماد عمومی و تضمین حقوق انسانی در تعامل با ماشین‌ها فراهم کنند. به‌دلیل بی‌مرز بودن هوش مصنوعی این قوانین و مقررات باید پوشش بین‌المللی داشته باشند تا هوش مصنوعی طبق استانداردهای جهانی و پروتکل‌های اخلاقی عمل کند.

اتحادیه اروپا با نگاهی به چالش‌های اخلاقی هوش مصنوعی، قانون هوش مصنوعی (AI Act) را تدوین و در سال ۲۰۲۴ نهایی کرد. این نخستین قانون جامع در جهان برای تنظیم مقررات هوش مصنوعی است. سیستم‌های هوش مصنوعی به چهار سطح ریسک (کم، محدود، بالا و ممنوع) دسته‌بندی شده‌اند. سیستم‌های با ریسک بالا (مانند استفاده در استخدام، آموزش، تشخیص چهره، امتیاز‌دهی و اعتبارسنجی) مشمول الزام‌های سختگیرانه نظارتی و شفاف‌سازی هستند. پیش از آن نیز GDPR (مقررات عمومی حفاظت از داده) در سال ۲۰۱۸ تدوین شده بود که چارچوبی است برای محافظت از داده‌های شخصی.

آمریکا برخلاف اروپا فاقد قانون جامع فدرال برای کنترل هوش مصنوعی است؛ تاکنون اقدام‌هایی پراکنده در سطح فدرال و ایالتی انجام شده ولی در سال ۲۰۲۳ فرمان اجرایی گسترده‌ای با هدف ایجاد چارچوب‌هایی برای توسعه ایمن و اخلاقی هوش مصنوعی صادر شده است.

چین نیز یکی از نخستین کشورهایی است که به تنظیم قوانین برای محتوای تولیدشده توسط هوش مصنوعی اقدام کرده و شرکت‌ها را ملزم می‌کند الگوریتم‌های خود را ثبت و تایید کنند. این کشور همچنین سیاست‌های سختگیرانه‌ای برای جلوگیری از انتشار اطلاعات جعلی و حفاظت از “امنیت داده” تحت نظارت دولت مرکزی اعمال کرده است. با گسترش جهانی هوش مصنوعی، نیاز به هماهنگی بین کشورها برای تعیین چارچوب‌های بین‌المللی مشترک برای تعریف استانداردهای اخلاقی، مشابه کنوانسیون‌های حقوق بشر، لازم به نظر می‌رسد.

یکی از مهم‌ترین تحولات در مسیر آینده، تثبیت مفهوم حقوق دیجیتال بشر است؛ مانند حق آگاهی از اینکه یک تصمیم توسط هوش مصنوعی اتخاذ شده است یا حق اعتراض به تصمیمات خودکار توسط هوش مصنوعی و یا حق پاک‌سازی داده‌های شخصی از سیستم‌ها. چنین حقوقی در حال وارد شدن به قانونگذاری رسمی کشورهای پیشرفته است و احتمالا به‌زودی در سطح بین‌المللی نیز جایگاه خواهد یافت.

کنترل داده و چارچوب‌های اخلاقی در استفاده از هوش مصنوعی، دیگر یک انتخاب یا مزیت رقابتی برای کشورها نیست، بلکه یک ضرورت امنیتی، اجتماعی و حقوقی است. همان‌طور که نهادهای نظارتی مالی یا زیست‌محیطی برای تضمین سلامت جامعه توسعه یافتند، تنظیمگری اخلاقی در حوزه هوش مصنوعی نیز باید به‌عنوان رکن چهارم حکمرانی دیجیتال موردتوجه قرار گیرد.

برای کشورهایی مانند ایران که در آستانه ورود گسترده به فناوری‌های مبتنی‌بر هوش مصنوعی هستند، آگاهی از تحولات جهانی و مشارکت در تنظیمگری بین‌المللی، نقشی کلیدی در حفظ منافع ملی، حمایت از حقوق شهروندی و جلوگیری از وابستگی فناورانه ایفا خواهد کرد.

انتهای پیام

ارسال نظر