اخیرا رباتهای چت هوش مصنوعی مانند چت جیپیتی (ChatGPT) در حال پیشرفت بسیار سریع هستند. با اینحال هوش مصنوعی، تکنولوژی چندان جدیدی به شمار نمیرود و سالهاست که به بخشی از دستاوردهای بشر تبدیل شده است. با این حال این فناوری در گذشته به خوبی امروز نبود.
در سال ۲۰۱۶، ربات چت مایکروسافت به نام «تای» (Tay) جنجالهای زیادی به پا کرد نشان داد این تکنولوژی در عین شگفتانگیز بودن، تا چه حد میتواند مخرب باشد. این ربات که با هدف آزمایش و سرگرم کردن جوانان ساخته شده بود خیلی زود توسط مایکروسافت معلق شد. چرا که تنها چند ساعت پس از ارائه، تای شروع به توییت کردن بدترین توهینهای نژادی و همچنین ترویج نازیسم و جنگ نژادی کرد.
در این مطلب ۶ درس که شرکتهای توسعهدهنده امروزی باید از مایکروسافت بیاموزند آمده است.
۱. خطر اوباش اینترنتی
ترولها یا اوباش اینترنتی در مواجهه با تکنولوژیهای جدید دوست دارند محدودیتهای آن را آزمایش کنند. بنابراین سوء استفاده از این سرویس با ارائه اطلاعات نادرست از سوی این افراد، چندان دور از ذهن نبود. اما این بدان معنا نیست که یک ربات چت هوشمند بدون اعمال حفاظتی به حال خود رها شود.
۲. هوش مصنوعی فرق بین خوب و بد را نمیداند
برنامه نویسان همواره سعی میکنند هوش مصنوعی را شبیه به هوش انسانی طراحی کنند. اما هوش مصنوعی برخلاف انسان دارای قضاوت مستقل نیست و نمیتواند فرق بین درست و نادرست و خیر و شر را متوجه شود. این موضوع باعث میشود احساس درد یا همدلی برای آنها بیمعنی باشد. به همین دلیل وقتی کاربران توییتر حجم زیادی از اطلاعات را به این سرویس میدادند، تای به سادگی فقط دستورالعمل را دنبال و اطلاعات را جمعآوری میکرد.
۳. هوش مصنوعی و مکالمات انسانی
هوش مصنوعی قابلیت یادگیری دارد و با جمعآوری اطلاعات در طول زمان پیشرفت میکند. اما آموزش یک هوش مصنوعی از طریق مکالمات کاربران اینترنتی ایده بدی بهنظر میرسد. شبکههای اجتماعی مختلف مملو از جملاتی هستند که با کلمات توهینآمیز و ناراحت کننده پر شدهاند. با این حال برای هوش مصنوعی تمام این موارد اطلاعات محسوب شده و وارد چرخه یادگیری و تقلید آن میشوند.
۴. هوش مصنوعی طعنه را نمیفهمد
امروزه هوش مصنوعی شهودیتر به نظر میرسد اما به طور کلی با فهمیدن طعنه و شوخی مشکل دارد. به عبارت دیگر همه چیز برای این رباتهای سخنگو جدی است و نمیتواند بسیاری از رفتارهای انسان را درک کند. این نشان میدهد هوش مصنوعی هر چقدر هم شبیه به انسان باشد، فقط حاصل یک برنامه نویسی ماهرانه است.
۵. هوش مصنوعی و درخواستهای نامعتبر
هوش مصنوعی بسیار مطیع است و هر اطلاعاتی که از آن خواسته شده را ارائه میدهد. این فناوری باید به گونه برنامهنویسی شود که قابلیت رد کردن درخواستهای آسیبزا را داشته باشد. این تنظیم از گیج شدن ربات نیز جلوگیری میکند.
۶. نیاز به نظارت همیشگی
هوش مصنوعی بخش قابل توجهی از فناوری بشر است، اما نمیتوان به چشم یک انسان به آن نگاه کرد. مهم نیست این ابزار تا چه حد پیشرفت کند، هرگز نباید آن را بدون نظارت رها کرد تا مورد سوء استفاده قرار گیرد و عوارض مخربی را بر جای بگذارد.
انتهای پیام