ظهور هوش مصنوعیهای مولد در چند سال اخیر، مانند چت بات محبوب ChatGPT، نحوه تعامل و استفاده ما از فناوری هوش مصنوعی را متحول کرده است. اکنون فعالیتهایی مانند نوشتن، کدنویسی و درخواست شغل بسیار آسانتر و سریعتر از گذشته شدهاند. با این حال، با تمام نکات مثبتی که این فناوری دارد، خطرات بسیار بزرگی نیز ما را تهدید میکند.
یکی از نگرانیهای اصلی راجب هوش مصنوعیهای مولد، اعتماد به آن و امنیت این فناوری است. این موضوع حتی باعث شده است که برخی از کشورها مانند ایتالیا، استفاده از ChatGPT را به طور کلی برای مردم خود ممنوع کنند، یا در سیاستهای مربوط به ابزارهای هوش مصنوعی برای محافظت از کاربران خود در برابر آسیبهای احتمالی تجدید نظر کنند.
به گفته Avivah Litan، تحلیلگر گارتنر، برخی از بزرگترین خطرات هوش مصنوعیهای مولد مربوط به اعتماد به آن و امنیت این فناوری نو ظهور میباشد. این موضوع شامل توهم و پاسخهای دور از واقعیت، دروغگوییهای غیرعادی و عمیق، ایجاد خطر برای حریم خصوصی دادهها، مسائل مربوط به کپی رایت و مشکلات امنیت سایبری میباشد.
1- توهم و پاسخهای دور از واقعیت
توهم و پاسخهای دور از واقعیت در هوش مصنوعیهای مولد، به خطاهایی اشاره دارد که ابزارها و مدلهای مختلف این فناوری همواره مستعد انجام آنها هستند. درواقع این ابزارها هرچقدر هم پیشرفته و نوین باشند، اما همچنان دارای یک هوش انسانی برای تشخیص درست و غلط بودن اطلاعات نیستند و برای ارائه پاسخهای خود به کاربران، به آموزش و دادههای برنامه نویسان خود و اطلاعاتی که از کاربران دریافت میکنند متکی هستند.
اگر از چت بات هوش مصنوعی مولد استفاده کرده باشید، به احتمال زیاد تا اکنون این توهمات را در قالب درک نادرست این چت باتها از درخواستی که کردهاید، یا پاسخ اشتباه آشکار به سؤالهای پرسیده شده توسط شما تجربه کردهاید.
لیتان در این باره میگوید:” دادههای آموزشی موجود در چت باتها میتواند منجر به پاسخهای مغرضانه یا غیرواقعی شود، که در این صورت، اگر کاربران برای کسب اطلاعات خود به این مولدهای هوش مصنوعی اعتماد کنند، میتواند به یک مشکل جدی تبدیل شود.”
لیتان همچنین در ادامه میگوید:” نه تنها دادههای آموزشی میتواند منجر به پاسخهای مغرضانه، غیرمستقیم یا اشتباه شود، بلکه تشخیص درست یا غلط بودن این دادهها نیز میتواند برای کاربران دشوار باشد، زیرا کاربر با توجه به تبلیغات گستردهای که برای هوش مصنوعیهای مولد در سالهای اخیر انجام شده است به آن اعتماد میکند، و به طور پیش فرض پاسخهای این چت باتها را درست میپندارد.”
2- دیپ فیک
دیپ فیک به طور کلی به معنی استفاده از هوش مصنوعیهای مولد برای ایجاد فیلمها، تصاویر مختلف و صداهای ضبط شده از یک فرد خاص مانند سلبریتیها و افراد مشهور یا عادی است که به طور کامل جعلی هستند و ممکن است به قصد جرایم مختلف از آنها استفاده شود.
از دیپ فیکهای معروفی که به تازگی تولید شدهاند و سر و صدای زیادی در شبکههای اجتماعی به پا کردهاند، میتوان به عکس جدید پاپ فرانسیس رهبر کاتولیکهای جهان با ژاکت پفکرده اشاره کرد، یا در بخش صداهای تولید شده توسط هوش مصنوعیهای مولد، آهنگ معروفی که در آن همکاری Drake و Weeknd مشاهده میشود یکی از نمونههای معروف این دسته از دیپ فیکها هستند که توانسته است تا اکنون در پلتفرمهای مختلف میلیونها بار بازدید جمعآوری کند.
لیتان میگوید: «این تصاویر، ویدیوها و صداهای جعلی تولید شده توسط هوش مصنوعیهای مولد برای حمله به افراد مشهور و سیاستمداران، ایجاد و انتشار اطلاعات گمراهکننده، و حتی برای ساخت حسابهای جعلی یا تسخیر و نفوذ به حسابهای قانونی موجود کاربران مختلف استفاده شدهاند.”
همانند توهم و پاسخهای دور از واقیعت، دیپ فیک نیز میتواند به انتشار گسترده محتوای جعلی در سطح اینترنت کمک کند، که این موضوع ترسناک میتواند منجر به انتشار اطلاعات نادرست شود، معضلی که امروزه با گستردهتر شدن فضای مجازی، یک مشکل جدی اجتماعی برای جامعه جهانی محسوب میشود.
3- حریم خصوصی دادهها
حفظ حریم خصوصی کاربران نیز یکی از نگرانیهای اصلی درمورد هوش مصنوعیهای مولد است، زیرا در بیشتر مواقع دادههای کاربران هنگام استفاده از این چت باتها برای آموزش و ارتقای ابزارهای هوش مصنوعی مولد استفاده شده ذخیره میشود. این مشکل یکی از دلایل اصلی کشور ایتالیا برای ممنوع کردن چت بات محبوب ChatGPT بود و ادعا کرد که کمپانی OpenAI از نظر قانونی مجاز به جمعآوری دادههای کاربران نیست.
لیتان میگوید:” کارمندان شرکتهای تولید کننده چت باتها میتوانند به راحتی دادههای حساس و اختصاصی سازمانی را هنگام تعامل با راهحلهای جدید برای چت بات هوش مصنوعی خود در معرض نمایش بگذارند. این برنامهها ممکن است بهطور نامحدود اطلاعاتی را که از طریق ورودیهای کاربر جمعآوری شدهاند، ذخیره کنند و حتی از این اطلاعات جمعآوری شده، برای آموزش مدلهای دیگر استفاده کنند که حریم خصوصی این دادهها را بیش از پیش به خطر میاندازد.”
لیتان همچنین تأکید میکند که اطلاعات ذخیرهشده در این چت باتها علاوه بر به خطر انداختن حریم خصوصی کاربران، خطر «به دست اشتباه افتادن» این دادهها یکی دیگر از خطرات جدی این قابلیت هوش مصنوعیهای مولد لست.”
4- امنیت سایبری
قابلیتهای پیشرفته مدلهای هوش مصنوعیهای مولد، مانند آنهایی که برای انجام کارهای کدنویسی استفاده میشوند نیز، میتواند به دست افراد نادرستی بیفتد و خطرات جدی امنیت سایبری برای کاربران اینترنت را به دنبال داشته باشد.
لیتان در این باره نیز میگوید:” علاوه بر مهندسی اجتماعی پیشرفتهتر و تهدیدات فیشینگ در متدهای جدید، مهاجمان میتوانند به سادگی از این ابزارها برای تولید کدهای مخرب استفاده کنند.”
وی در ادامه میگوید:” اگرچه اکنون توسعه دهندگان و کمپانیهایی که این دسته از هوش مصنوعیهای مولد را ارائه میکنند معمولاً به کاربران خود این اطمینان را میدهند که مدلهای آنها، برای رد درخواستهایی که موجب ساخت کدهای مخرب برای تهدید امنیت سایبری افراد آموزش دیدهاند، با این حال همچنان نمیتوان مطمعن بود که آیا این مدلها در مقابل همه درخواستهای مختلف میتوانند مقاومت کنند یا خیر.”
5- مشکلات کپی رایت
در دنیای امروز حفظ حق کپی رایت هنرمندان و تولید کنندگان آثار مختلف یک نگرانی بزرگ تلقی میشود، این نگرانی درمورد هوش مصنوعیهای مولد میتواند به یک مشکل جدی نیز تبدیل شود، زیرا مدلهای مختلف چت باتهایی که امروزه درحال تولید و توسعه هستند توسط مقادیر انبوه دادههای اینترنتی که برای تولید خروجی از آنها استفاده میشوند آموزش میبینند.
این فرآیند آموزش بدین معنی است که آثاری که به صراحت توسط منبع اصلی آنها به اشتراک گذاشته نشدهاند و توسط افراد دیگری منتشر میشوند، میتوانند برای تولید محتوای جدید این چت باتها بدون در نظر گرفتن حق کپی رایت آنها استفاده شوند.
حفظ حقوق کپی رایت، موضوعی است که برای هنرهای تولید شده توسط هوش مصنوعیهای مولد به هر شکلی، از جمله عکس و موسیقی و فیلم، میتواند مشکل ساز شود.
ابزارهای تولید کننده هوش مصنوعیهای مولد، مانند DALL-E برای ایجاد یک تصویر از یک موضوع خاص که کاربر در ورودی آنها وارد کرده است، باید به پایگاه داده بزرگ عکسهایی که طبق آنها آموزش دیدهاند مراجعه کنند. نتیجه این فرآیند این است که محصول نهایی ممکن است شامل بخشهایی از کار یا سبک یک یا چند هنرمند مختلف باشد و به گونهای بدون اشاره به تولید کننده اصلی آنها، به صورت محتوای خروجی به کاربر نمایش داده شود.
همچنین از آن جایی که آثاری که در پایگاه داده مدلهای مختلف هوش مصنوعیهای مولد وجود دارند و آنها طبق این تصاویر آموزش دیدهاند همچنان به صراحت فاش نشدهاند، کاهش مشکلات حق کپی رایت هنرمندان درحال حاضر بسیار دشوار است.
جلوگیری از خطرات هوش مصنوعیهای مولد
علیرغم خطرات فراوانی که درمورد استفاده از هوش مصنوعیهای مولد وجود دارد، لیتان، تحلیلگر گارتنر همچنان مدعی است که سازمانها نباید کاوش و تولیدات خود در حوزه این فناوری را متوقف کنند. در عوض، شرکتهای تولید کننده مدلهای مختلف هوش مصنوعیهای مولد، باید با ایجاد یک استراتژی در سطح سازمانی، اعتماد عموم مردم و دولتها را نسبت به تکنولوژی هوش مصنوعی افزایش دهند و با مدیریت ریسکها و مشکلات موجود در آنها، امنیت ابزارهای خود را به سطح قابل قبولی برسانند.
لیتان در این باره میگوید: “توسعهدهندگان هوش مصنوعیهای مولد باید فوراً با سیاستگذاران، از جمله مقامات نظارتی جدیدی که ممکن است برای وضع قوانین جدید برای ابزارهای هوش مصنوعی ظهور کنند، برای ایجاد سیاستها و شیوههایی برای نظارت بر هوش مصنوعیهای مولد، و همچنین در راستای مدیریت مشکلات و امنیت آنها همواره تلاش کنند.”
منبع: zdnet