اخلاق و قانون در عصر هوش مصنوعی
محسن کریمی، مدیر ارتباطات بانک خاورمیانه در یادداشتی مسئله هوش مصنوعی و اثرات آن را به دقت بیان کرده است.
برای مشاهده جدیدترین اخبار کسب و کار کاماپرس را در اینستاگرام دنبال کنید.
به گزارش کاماپرس، طبق یادداشت کریمی در آژانس خبری پیآر، موضوع “از کنترل خارج شدن هوش مصنوعی” یکی از محبوبترین و هشداردهندهترین سوژهها در ادبیات و سینمای علمی-تخیلی است. نویسندگانی مانند آیزاک آسیموف و ویلیام گیبسون موضوع فرابشری شدن توان هوش مصنوعی و تصمیمگیری خودمختارانه ابزارها و رباتها را سوژه داستانهای خود قرار دادهاند. نیک باستروم نیز با نگاهی آیندهپژوهانه و با تکیه بر فلسفه علم در فضایی غیرتخیلی سناریوهایی را مطرح میکند که در آنها هوش مصنوعی پیشرفته از کنترل انسان خارج میشود و میتواند سرنوشت تمدن بشری را تغییر دهد.
اخبار مرتبط را بخوانید:
- Galaxy XR با قدرت هوش مصنوعی Gemini از راه رسید
- مشارکت همراه اول در برگزاری هشتمین کنفرانس بینالمللی سواد رسانهای و اطلاعاتی
فیلمسازانی مانند استنلی کوبریک و الکس گارلند نیز همین دغدغه و استیلای ماشین بر انسان را به تصویر کشیدهاند. در فیلمهایی همچون ۲۰۰۱: ادیسه فضایی، اکسماکینا، ماتریکس و ترمیناتور تقابل و بهرهبرداری هوش مصنوعی از نسل بشر بهصورت اغراقآمیز تصویر شده است؛ در این داستانها، ماشین بهحدی از خودآگاهی فلسفی میرسد که دیگر تعامل با انسانها را ناکافی و بیمعنا میداند.
اخیرا اصطلاح “اسلاپر” (slopper) متداول شده است که به کسانی اطلاق میشود که در مواجهه با هر سوالی فورا بهسراغ هوش مصنوعی میروند؛ شیوع این نوع رفتارها مسیر تسلط ماشین بر انسان را هموارتر میکند. اکنون در میان هیاهوی تحولات فناورانه و ذوقزدگی از تواناییهای هوش مصنوعی، سوال بنیادیتری در حال شکلگیری است: آیا ما بههمان اندازه که در توسعه هوش مصنوعی شتاب گرفتهایم، برای جنبه اخلاقی و قانونی آن نیز فکری کردهایم؟ آیا وابسته شدن انسان به ابزارهای هوش مصنوعی او را اسیر این فناوری خواهد کرد؟
هوش مصنوعی با تکیه بر دادههای تاریخی آموزش میبیند؛ اما این دادهها خود بازتابدهنده نابرابریهای اجتماعی و اقتصادی گذشته هستند، درنتیجه خروجی هوش مصنوعی نیز تابع همان روایت تاریخی تبعیضآمیز است. فناوریهایی نظیر دیپفیک (Deepfake) که با استفاده از هوش مصنوعی تصاویر، صداها و ویدئوهای جعلی اما واقعینما تولید میکنند، دنیای اطلاعات را با بحرانی بیسابقه روبهرو کرده است. مرز میان واقعیت و دروغ روزبهروز مبهمتر میشود.
براساس یادداشت کریمی در سایت پیآر، موضوع مهمی که در مورد هوش مصنوعی منبع نگرانی است، پردازش و بهرهبرداری از دادههای شخصی افراد است؛ از تاریخچه جستوجوی اینترنتی گرفته تا علائق خرید، موقعیت مکانی، رفتارهای مالی و حتی روابط شخصی. هوش مصنوعی با دسترسی به این اطلاعات میتواند خدمات و پیشنهادهای شخصیسازیشده به افراد بدهد ولی سوءاستفاده از این اطلاعات پردازششده نیز خطر بزرگی برای افراد در پی دارد. اگر این دادهها به بیرون درز کند یا از آنها سوءاستفاده شود، چه سازوکارهای قانونی برای حمایت از افراد وجود دارد؟ هنوز چارچوبهای قانونی منسجمی برای نحوه جمعآوری، نگهداری، تحلیل و حذف دادههای شخصی وجود ندارد. قانونگذاری جامع در زمینه محافظت از دادهها، حقی ضروری برای شهروندان دیجیتال قرن بیستویکم است.
در بسیاری از موارد، تصمیماتی که توسط هوش مصنوعی اتخاذ میشوند، بر زندگی واقعی انسانها تاثیر میگذارند؛ از رد شدن وام بانکی گرفته تا ارزیابی رزومه یا عملکرد کارکنان یا درخواست ویزا. اگر اشتباه یا تبعیضی رخ دهد یا با استفاده از الگوریتمهای تشخیص بتوان هوش مصنوعی را فریب داد، مسئولیت آن با چه کسی است؟
به نظر میرسد قانونگذاران در کنار توجه به مقررات ناظر به فناوری باید بستری برای هدایت اخلاقی، تقویت اعتماد عمومی و تضمین حقوق انسانی در تعامل با ماشینها فراهم کنند. بهدلیل بیمرز بودن هوش مصنوعی این قوانین و مقررات باید پوشش بینالمللی داشته باشند تا هوش مصنوعی طبق استانداردهای جهانی و پروتکلهای اخلاقی عمل کند.
اتحادیه اروپا با نگاهی به چالشهای اخلاقی هوش مصنوعی، قانون هوش مصنوعی (AI Act) را تدوین و در سال ۲۰۲۴ نهایی کرد. این نخستین قانون جامع در جهان برای تنظیم مقررات هوش مصنوعی است. سیستمهای هوش مصنوعی به چهار سطح ریسک (کم، محدود، بالا و ممنوع) دستهبندی شدهاند. سیستمهای با ریسک بالا (مانند استفاده در استخدام، آموزش، تشخیص چهره، امتیازدهی و اعتبارسنجی) مشمول الزامهای سختگیرانه نظارتی و شفافسازی هستند. پیش از آن نیز GDPR (مقررات عمومی حفاظت از داده) در سال ۲۰۱۸ تدوین شده بود که چارچوبی است برای محافظت از دادههای شخصی.
آمریکا برخلاف اروپا فاقد قانون جامع فدرال برای کنترل هوش مصنوعی است؛ تاکنون اقدامهایی پراکنده در سطح فدرال و ایالتی انجام شده ولی در سال ۲۰۲۳ فرمان اجرایی گستردهای با هدف ایجاد چارچوبهایی برای توسعه ایمن و اخلاقی هوش مصنوعی صادر شده است.
چین نیز یکی از نخستین کشورهایی است که به تنظیم قوانین برای محتوای تولیدشده توسط هوش مصنوعی اقدام کرده و شرکتها را ملزم میکند الگوریتمهای خود را ثبت و تایید کنند. این کشور همچنین سیاستهای سختگیرانهای برای جلوگیری از انتشار اطلاعات جعلی و حفاظت از “امنیت داده” تحت نظارت دولت مرکزی اعمال کرده است. با گسترش جهانی هوش مصنوعی، نیاز به هماهنگی بین کشورها برای تعیین چارچوبهای بینالمللی مشترک برای تعریف استانداردهای اخلاقی، مشابه کنوانسیونهای حقوق بشر، لازم به نظر میرسد.
یکی از مهمترین تحولات در مسیر آینده، تثبیت مفهوم حقوق دیجیتال بشر است؛ مانند حق آگاهی از اینکه یک تصمیم توسط هوش مصنوعی اتخاذ شده است یا حق اعتراض به تصمیمات خودکار توسط هوش مصنوعی و یا حق پاکسازی دادههای شخصی از سیستمها. چنین حقوقی در حال وارد شدن به قانونگذاری رسمی کشورهای پیشرفته است و احتمالا بهزودی در سطح بینالمللی نیز جایگاه خواهد یافت.
کنترل داده و چارچوبهای اخلاقی در استفاده از هوش مصنوعی، دیگر یک انتخاب یا مزیت رقابتی برای کشورها نیست، بلکه یک ضرورت امنیتی، اجتماعی و حقوقی است. همانطور که نهادهای نظارتی مالی یا زیستمحیطی برای تضمین سلامت جامعه توسعه یافتند، تنظیمگری اخلاقی در حوزه هوش مصنوعی نیز باید بهعنوان رکن چهارم حکمرانی دیجیتال موردتوجه قرار گیرد.
برای کشورهایی مانند ایران که در آستانه ورود گسترده به فناوریهای مبتنیبر هوش مصنوعی هستند، آگاهی از تحولات جهانی و مشارکت در تنظیمگری بینالمللی، نقشی کلیدی در حفظ منافع ملی، حمایت از حقوق شهروندی و جلوگیری از وابستگی فناورانه ایفا خواهد کرد.
انتهای پیام
مرتبط با: