هوش مصنوعی؛ فرصتی برای توسعه یا تهدیدی برای امنیت سایبری؟

هوش مصنوعی دیگر فقط ابزار نوینی برای توسعه وب یا گفتوگوی با کاربران نیست؛ بلکه به زمین بازی مهاجمان سایبری، محل رقابت ژئوپلیتیکی و گلوگاه امنیتی سازمانها نیز هم تبدیل شده است.
به بهانه روز جهانی وب، ۹ مردادماه، کاماپرس به گفتوگو با مهرداد فرهادی، پژوهشگر ژئوپلیتیک و متخصص امنیت شبکه نشست. او در صحبتهایی صریح و فنی از واقعیتهایی مانند سوءاستفاده دولتها و هکرها از مدلهای LLM، موانع زیرساختی ایران در توسعه نسخههای بومی و غفلت نهادها از ابتداییترین الزامهای دفاع سایبری گفت.
نگرانی ها و چالش های اخلاقی و امنیتی مرتبط با استفاده از AI در وب چیست؟ چگونه می توان با آن مقابله کرد؟
یک سری چالشهای اخلاقی وجود دارد که الان خیلی جدی نیست. نگرانیها و حرفهای زیادی زده میشود اما فعلا به آن توجه جدی نمیشود. ریشه منطق این نگرانیهای اخلاقی این است که یک AI بتواند خارج از اختیار انسان جرم، کار خلاف و یا تهدیدی ضد بشر را انجام دهد.
با پیشرفتی که در حوزه هوش مصنوعی انجام شده، هنوز این موضوعها و نگرانیها مطرح نیست. تازه مدلهای پیشرفته و کاربردی ما LLM هستند. یعنی ماشینی که هر گونه زبان را میتواند یادگیری عمیق کند. احساسات و هویت فعلاً در این مدلهای هوش مصنوعی جایی ندارد، هویتی در این هوش مصنوعیها نیست، بلکه میتوانند نقش بگیرند. مثلاً میتوانید روی هوش مصنوعی خود نام بذارید و هویت آن را بسازید یا شکل دهید، اما آن مدل LLM از خود هویت و احساسات و غریزه منحصر ندارد. بدین ترتیب، مسائل اخلاقی، سمت اهداف طراح یا مصرف کنندهی آن هوش مصنوعی مطرح است.
یکی از دانشهای مطرح شده درباره این مسائل و چالشهای اخلاقی هوش مصنوعی و کنترل آن، با نام روانشناسی AI و حقوق قضایی استفاده از AI به وجود آمده است.
چالش امنیتی هوش مصنوعی در حال حاضر، انتشار اطلاعات و اهداف استفاده از آن است. مثلا کسی که اطلاعاتی را با هوش مصنوعی در میان بذارد یا میان پیامها و فایلها دادههایی محرمانه یا شخصی نشت کند، ممکن است شخص دیگری بتواند آن اطلاعات را استخراج کند. تا حدی شرکتهای فعال در زمینه AI مکانیسمهایی گذاشتهاند تا چنین اتفاقی رخ ندهد اما این نگرانی در سطح جهانی و در مورد پلتفرمهایی است که Open source نیستند و نمیتوان بهطور محلی (local یا offline) آن را پیادهسازی و استفاده سازمانی یا خصوصی کرد.
همچنین مواردی مشاهده شده است که مهاجمهای سایبری یا هکرها برای اقدامهای پس از نفوذ از هوش مصنوعی بهره میبرند. مواردی مانند سرقت و تحلیل دادهها و اطلاعات موجودیت قربانی، ادغام و تقاطعگیری اطلاعات، تشخیص یا تصویرسازی از توپولوژی شبکه تحت نفوذ، یافتن مسیرهای رسیدن به دستگاهها یا شبکههای هدف و غیره.
گلوگاه یا مهمترین چالشهای توسعه یک مدل هوش مصنوعی LLM قوی و دقیق که بتوان بهطور محلی (offline) از آن استفاده سازمانی یا خصوصی کرد؛ محدودیتها و پر هزینه بودن منابع سختافزاری (پردازندههای GPU و حافظه VRAM آنها) و دادههای یادگیری عمیق یا dataset است. هر چه پارامترهای این نوع مدلها بیشتر باشد و با dataset دقیقتر و بزرگتری یادگیری عمیق انجام شود، آن AI بهتر و دقیقتر عمل خواهد کرد که این موارد نیازمند منابع سختافزاری قوی است.
در چالش های امنیت سایبری که در کشور داریم، یکی از نیازهای اساسی ما جمع آوری لاگها و اطلاعات تلهمتری از تمامی دستگاههای کاربری، سرور، IoT و تجهیزات شبکهای مانند فایروالها است که میتوانند بعد از رخداد امنیتی به انجام یک تحقیق کامل بسیار کمک کنند. متأسفانه این اقدام در نقاطی اصلا انجام نمیشود، در برخی از نقاط انجام میشود اما ناقص است.
جمعآوری متمرکز این اطلاعات در یک سیستم خیلی مهم است. متمرکز کردن لاگ های جمع آوری شده، مقدمهای است برای آنکه از مدلهای هوش مصنوعی توسعه یافته محلی/خصوصی استفاده شود. یک مدل LLM هوش مصنوعی در این زمینه میتواند با تحلیل real-time لاگها و تلهمتریها، نویز و هشدارهای اشتباه (false-positive و false-negative) را کاهش دهد.
به جای بررسی دستی تمامی اطلاعات که نیازمند به هزینه و منابع انسانی متخصص بسیار است، تنها لاگها و فعالیتهای مشکوک شناسایی شده توسط هوش مصنوعی با هزینه منابع انسانی کمتر، مورد بازبینی قرار بگیرد. ما باید حتما در سازمانهایی که وظایف زیرساختی حیاتی، حساس و مهم دارند، در کنار تکمیل حداکثری جمعآوری لاگها و تلمتریها، از مدلهای توسعه یافته AI استفاده کنیم تا بتوان تهدیدهای سایبری را پیش از رخداد کشف کرد.
بیشتر بخوانید:
چه ابزارهای AI جدیدی به توسعه وب کمک میکند؟
AI یا حداقل مدلهای LLM فعلی با اهداف مختلف و دادههای یادگیری عمیق مختلف به صورت Open source توسعه داده شدهاند که استفادههای بسیار و مختلفی دارند. همچنین در اپلیکیشنهای زیادی به عنوان دستیار یا پشتیبانی از مشتری یا مخاطب نقش دارند و میتواند به تعامل بهتر کاربر با مجموعه منتهی شود. مثلا این پتانسیل میتواند به کاربر کمک کند که سریعتر و بدون نیاز به مطرح کردن مشکل با نیروهای پشتیبانی و صرف زمان طولانی برای دریافت پاسخ یا حل مشکلش، از دستیار هوش مصنوعی آن سامانه وب استفاده کند.
اپلیکیشن های متعددی می توانند در این زمینه نقش بازی کنند. هرچقدرهم دقت مدل شما بالا باشد، با این حال، در بهترین حالت هم هنوزخرده درصدی خطا در این مدلها وجود خواهد داشت
مشخصا چه مدل هایی را پیشنهاد میکنید؟
مثلا یک مدل Open source به نام CodeBERT وجود دارد اما ضعفهایی هم دارد و باید برای هدفی که می خواهید آن را fine-tune یا بیشتر آموزش دهید تا دقت و تواناییهای کدنویسی وب سایت آن به حد یک برنامهنویس نیمه حرفهای برسد.
- هوش مصنوعی مورد استفاده کاربران و طراحان سایت، از چه جنس است؟
انواع فعلی هوش مصنوعی که بسیار مطرح شده و عملکرد و دقت آنها توجه مردم جهان را به خود جلب کرده است، جزو هوش مصنوعیهایی هستند که به آن LLM می گویند که از Deep Learning و مفاهیم CNN و DNN میآیند. ریشه این مدلها، الگوریتمهای یادگیری مبتنی بر شبکههای عصبی است. مدلهای هوش مصنوعی LLM میتوانند حاوی تعداد پارامترها و لایههای عصبی بسیار باشند. این مدلها نیازمند یادگیری عمیق هستند و باید یک Data Mining وجود داشته باشد تا دادههای آموزشی یا همان Dataset دقیق و بزرگ فراهم شود. مدلهای مختلفی مانند چت جیپیتی و.. به وجود آمدهاند که غیر Open source هستند ولی شمار پارامترها و لایههای شبکه عصبی آنها بسیار است و با حجم بالایی از dataset یادگیری عمیق شدهاند.
مدلهای Open source بسیاری نیز وجود دارد که در کلاسهای مختلف طراحی شدهاند و با دیتاسازهای مختلف یادگیری عمیق آنها انجام شده است. مثلا مدلهایی وجود دارند که فقط cluster یا دستهبندی میکنند و الگوها و ویژگیهای مشترک در دادهها و اطلاعات حجیم را تشخیص و بر همان اساس دستهبندی میکنند و میتوانند شبکه ارتباطی میان این دستهها یا گرههای مشترک را تشخیص دهند. یا مدلهایی که اختصاصا برای کدنویسی طراحی و آموزش داده شدهاند. یا مدلهایی که برای تولید فیلم و تصویر و غیره. چت جیپیتی شبیه به یک مدل ادغام شده این نمونهها است. شما می توانید مدلهای مختلف هوش مصنوعی را در یک سیستم ادغام کنید تا بتواند اهداف پیچیدهتری را با دقت مناسب انجام دهد.
انتهای پیام
مرتبط با: