پنج نمونه از خطرات بزرگ هوش مصنوعی‌های مولد

هوش مصنوعی‌های مولد

ظهور هوش مصنوعی‌‌های مولد در چند سال اخیر، مانند چت بات محبوب ChatGPT، نحوه تعامل و استفاده ما از فناوری هوش مصنوعی را متحول کرده است. اکنون فعالیت‌هایی مانند نوشتن، کدنویسی و درخواست شغل بسیار آسان‌تر و سریع‌تر از گذشته شده‌اند. با این حال، با تمام نکات مثبتی که این فناوری دارد، خطرات بسیار بزرگی نیز ما را تهدید می‌کند.

یکی از نگرانی‌های اصلی راجب هوش مصنوعی‌های مولد، اعتماد به آن و امنیت این فناوری است. این موضوع حتی باعث شده است که برخی از کشورها مانند ایتالیا، استفاده از ChatGPT را به طور کلی برای مردم خود ممنوع کنند، یا در سیاست‌های مربوط به ابزارهای هوش مصنوعی برای محافظت از کاربران خود در برابر آسیب‌های احتمالی تجدید نظر کنند.

به گفته Avivah Litan، تحلیلگر گارتنر، برخی از بزرگترین خطرات هوش مصنوعی‌های مولد مربوط به اعتماد به آن و امنیت این فناوری نو ظهور می‌باشد. این موضوع شامل توهم و پاسخ‌های دور از واقعیت، دروغگویی‌های غیرعادی و عمیق، ایجاد خطر برای حریم خصوصی داده‌ها، مسائل مربوط به کپی رایت و مشکلات امنیت سایبری می‌باشد.

1- توهم و پاسخ‌های دور از واقعیت

توهم و پاسخ‌های دور از واقعیت در هوش مصنوعی‌های مولد، به خطاهایی اشاره دارد که ابزارها و مدل‌های مختلف این فناوری همواره مستعد انجام آن‌ها هستند. درواقع این ابزارها هرچقدر هم پیشرفته و نوین باشند، اما همچنان دارای یک هوش انسانی برای تشخیص درست و غلط بودن اطلاعات نیستند و برای ارائه پاسخ‌های خود به کاربران، به آموزش و داده‌های برنامه نویسان خود و اطلاعاتی که از کاربران دریافت می‌کنند متکی هستند.

اگر از چت بات هوش مصنوعی مولد استفاده کرده باشید، به احتمال زیاد تا اکنون این توهمات را در قالب درک نادرست این چت بات‌ها از درخواستی که کرده‌اید، یا پاسخ اشتباه آشکار به سؤال‌های پرسیده شده توسط شما تجربه کرده‌اید.

لیتان در این باره می‌گوید:” داده‌های آموزشی موجود در چت بات‌ها می‌تواند منجر به پاسخ‌های مغرضانه یا غیرواقعی شود، که در این صورت، اگر کاربران برای کسب اطلاعات خود به این مولدهای هوش مصنوعی اعتماد کنند، می‌تواند به یک مشکل جدی تبدیل شود.”

لیتان همچنین در ادامه می‌گوید:” نه تنها داده‌های آموزشی می‌تواند منجر به پاسخ‌های مغرضانه، غیرمستقیم یا اشتباه شود، بلکه تشخیص درست یا غلط بودن این داده‌ها نیز می‌تواند برای کاربران دشوار باشد، زیرا کاربر با توجه به تبلیغات گسترده‌ای که برای هوش مصنوعی‌های مولد در سال‌های اخیر انجام شده است به آن اعتماد می‌کند، و به طور پیش فرض پاسخ‌های این چت بات‌ها را درست می‌پندارد.”

2- دیپ فیک

دیپ فیک به طور کلی به معنی استفاده از هوش مصنوعی‌های مولد برای ایجاد فیلم‌ها، تصاویر مختلف و صداهای ضبط شده از یک فرد خاص مانند سلبریتی‌ها و افراد مشهور یا عادی است که به طور کامل جعلی هستند و ممکن است به قصد جرایم مختلف از آن‌ها استفاده شود.

از دیپ فیک‌های معروفی که به تازگی تولید شده‌اند و سر و صدای زیادی در شبکه‌های اجتماعی به پا کرده‌اند، می‌توان به عکس جدید پاپ فرانسیس رهبر کاتولیک‌های جهان با ژاکت پف‌کرده اشاره کرد، یا در بخش صداهای تولید شده توسط هوش مصنوعی‌های مولد، آهنگ معروفی که در آن همکاری Drake و Weeknd مشاهده می‌شود یکی از نمونه‌های معروف این دسته از دیپ فیک‌ها هستند که توانسته است تا اکنون در پلتفرم‌های مختلف میلیون‌ها بار بازدید جمع‌آوری کند.

لیتان می‌گوید: «این تصاویر، ویدیوها و صداهای جعلی تولید شده توسط هوش مصنوعی‌های مولد برای حمله به افراد مشهور و سیاستمداران، ایجاد و انتشار اطلاعات گمراه‌کننده، و حتی برای ساخت حساب‌های جعلی یا تسخیر و نفوذ به حساب‌های قانونی موجود کاربران مختلف استفاده شده‌اند.”

همانند توهم و پاسخ‌های دور از واقیعت، دیپ فیک نیز می‌تواند به انتشار گسترده محتوای جعلی در سطح اینترنت کمک کند، که این موضوع ترسناک می‌تواند منجر به انتشار اطلاعات نادرست شود، معضلی که امروزه با گسترده‌تر شدن فضای مجازی، یک مشکل جدی اجتماعی برای جامعه جهانی محسوب می‌شود.

هوش مصنوعی‌های مولد

3- حریم خصوصی داده‌ها

حفظ حریم خصوصی کاربران نیز یکی از نگرانی‌های اصلی درمورد هوش مصنوعی‌های مولد است، زیرا در بیشتر مواقع داده‌های کاربران هنگام استفاده از این چت بات‌ها برای آموزش و ارتقای ابزارهای هوش مصنوعی مولد استفاده شده ذخیره می‌شود. این مشکل یکی از دلایل اصلی کشور ایتالیا برای ممنوع کردن چت بات محبوب ChatGPT بود و ادعا کرد که کمپانی OpenAI از نظر قانونی مجاز به جمع‌آوری داده‌های کاربران نیست.

لیتان می‌گوید:” کارمندان شرکت‌های تولید کننده چت بات‌ها می‌توانند به راحتی داده‌های حساس و اختصاصی سازمانی را هنگام تعامل با راه‌حل‌های جدید برای چت بات هوش مصنوعی خود در معرض نمایش بگذارند. این برنامه‌ها ممکن است به‌طور نامحدود اطلاعاتی را که از طریق ورودی‌های کاربر جمع‌آوری شده‌اند، ذخیره کنند و حتی از این اطلاعات جمع‌آوری شده، برای آموزش مدل‌های دیگر استفاده کنند که حریم خصوصی این داده‌ها را بیش از پیش به خطر می‌اندازد.”

لیتان همچنین تأکید می‌کند که اطلاعات ذخیره‌شده در این چت بات‌ها علاوه بر به خطر انداختن حریم خصوصی کاربران، خطر «به دست اشتباه افتادن» این داده‌ها یکی دیگر از خطرات جدی این قابلیت هوش مصنوعی‌های مولد لست.”

4- امنیت سایبری

قابلیت‌های پیشرفته مدل‌های هوش مصنوعی‌های مولد، مانند آن‌هایی که برای انجام کارهای کدنویسی استفاده می‌شوند نیز، می‌تواند به دست افراد نادرستی بیفتد و خطرات جدی امنیت سایبری برای کاربران اینترنت را به دنبال داشته باشد.

لیتان در این باره نیز می‌گوید:” علاوه بر مهندسی اجتماعی پیشرفته‌تر و تهدیدات فیشینگ در متدهای جدید، مهاجمان می‌توانند به سادگی از این ابزارها برای تولید کدهای مخرب استفاده کنند.”

وی در ادامه می‌گوید:” اگرچه اکنون توسعه دهندگان و کمپانی‌هایی که این دسته از هوش مصنوعی‌های مولد را ارائه می‌کنند معمولاً به کاربران خود این اطمینان را می‌دهند که مدل‌های آن‌ها، برای رد درخواست‌هایی که موجب ساخت کدهای مخرب برای تهدید امنیت سایبری افراد آموزش دیده‌اند، با این حال همچنان نمی‌توان مطمعن بود که آیا این مدل‌ها در مقابل همه درخواست‌های مختلف می‌توانند مقاومت کنند یا خیر.”

5- مشکلات کپی رایت

در دنیای امروز حفظ حق کپی رایت هنرمندان و تولید کنندگان آثار مختلف یک نگرانی بزرگ تلقی می‌شود، این نگرانی درمورد هوش مصنوعی‌های مولد می‌تواند به یک مشکل جدی نیز تبدیل شود، زیرا مدل‌های مختلف چت بات‌هایی که امروزه درحال تولید و توسعه هستند توسط مقادیر انبوه داده‌های اینترنتی که برای تولید خروجی از آن‌ها استفاده می‌شوند آموزش می‌بینند.

این فرآیند آموزش بدین معنی است که آثاری که به صراحت توسط منبع اصلی آن‌ها به اشتراک گذاشته نشده‌اند و توسط افراد دیگری منتشر می‌شوند، می‌توانند برای تولید محتوای جدید این چت بات‌ها بدون در نظر گرفتن حق کپی رایت آن‌ها استفاده شوند.

حفظ حقوق کپی رایت، موضوعی است که برای هنرهای تولید شده توسط هوش مصنوعی‌های مولد به هر شکلی، از جمله عکس و موسیقی و فیلم، می‌تواند مشکل ساز شود.

ابزارهای تولید کننده هوش مصنوعی‌های مولد، مانند DALL-E برای ایجاد یک تصویر از یک موضوع خاص که کاربر در ورودی آن‌ها وارد کرده است، باید به پایگاه داده بزرگ عکس‌هایی که طبق آن‌ها آموزش دیده‌اند مراجعه ‌کنند. نتیجه این فرآیند این است که محصول نهایی ممکن است شامل بخش‌هایی از کار یا سبک یک یا چند هنرمند مختلف باشد و به گونه‌ای بدون اشاره به تولید کننده اصلی آن‌ها، به صورت محتوای خروجی به کاربر نمایش داده شود.

همچنین از آن جایی که آثاری که در پایگاه داده مدل‌های مختلف هوش مصنوعی‌های مولد وجود دارند و آن‌ها طبق این تصاویر آموزش دیده‌اند همچنان به صراحت فاش نشده‌اند، کاهش مشکلات حق کپی رایت هنرمندان درحال حاضر بسیار دشوار است.

جلوگیری از خطرات هوش مصنوعی‌های مولد

علی‌رغم خطرات فراوانی که درمورد استفاده از هوش مصنوعی‌های مولد وجود دارد، لیتان، تحلیل‌گر گارتنر همچنان مدعی است که سازمان‌ها نباید کاوش و تولیدات خود در حوزه این فناوری را متوقف کنند. در عوض، شرکت‌های تولید کننده مدل‌های مختلف هوش مصنوعی‌های مولد، باید با ایجاد یک استراتژی در سطح سازمانی، اعتماد عموم مردم و دولت‌ها را نسبت به تکنولوژی هوش مصنوعی افزایش دهند و با مدیریت ریسک‌ها و مشکلات موجود در آن‌ها، امنیت ابزارهای خود را به سطح قابل قبولی برسانند.

لیتان در این باره می‌گوید: “توسعه‌دهندگان هوش مصنوعی‌های مولد باید فوراً با سیاست‌گذاران، از جمله مقامات نظارتی جدیدی که ممکن است برای وضع قوانین جدید برای ابزارهای هوش مصنوعی ظهور کنند، برای ایجاد سیاست‌ها و شیوه‌هایی برای نظارت بر هوش مصنوعی‌های مولد، و همچنین در راستای مدیریت مشکلات و امنیت آن‌ها همواره تلاش کنند.”

منبع: zdnet

 

ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید