کمپانی سامسونگ ChatGPT را ممنوع کرد!

ChatGPT

طبق گزارش‌هایی که به تازگی منتشر شده، کمپانی سامسونگ یکی از غول‌های فناوری حال حاضر جهان، اخیرا استفاده از ابزارهای هوش مصنوعی مولد مانند ChatGPT را برای کارکنان خود ممنوع کرده است. طبق این قانون جدید، کارکنان این شرکت حق استفاده از چت بات‌ها را در گوشی‌های هوشمند، تبلت و کامپیوترهای خود نخواهند داشت.

این اقدام کمپانی سامسونگ، در پی اشتباه یکی از کارکنان آن انجام شد. چندی پیش، یکی از متخصصین مشغول در شرکت سامسونگ، هنگامی که درحال استفاده از ChatGPT برای ویرایش و مرتب سازی کد خود بود، به طور تصادفی یک فایل حاوی داده‌ و کدهای حساس و مهم این کمپانی را به داخل این سرویس آپلود کرد.

با توجه به خاصیت ChatGPT و به طور کلی ابزارهای هوش مصنوعی مولد، در ذخیره سازی اطلاعات ورودی کاربران و استفاده از آن‌ها برای ارتقای خود، آپلود اطلاعات حساس یک کمپانی به بزرگی سامسونگ درون چنین سرویس‌هایی، می‌تواند فاجعه بار باشد. درواقع زمانی که ChatGPT این اطلاعات را دریافت می‌کند، آن‌ها را در سرورهای خود ذخیره کرده برای پاسخ به سایر کاربران استفاده خواهد کرد، این بدان معناست که هرکسی می‌توانست به اطلاعات افشا شده توسط کارمند کمپانی سامسونگ دست پیدا کند.

به همین منظور، کمپانی سامسونگ به سرعت وارد عمل شد و برای جلوگیری از بروز چنین اشتباهات فاجعه‌باری، استفاده از ابزارهای هوش مصنوعی مولد در محل کار را، برای کارکنان و متخصصین خود به طور کلی ممنوع کرد.

ظاهرا کمپانی سامسونگ روز دوشنبه همین هفته، یادداشتی مبنی بر ممنوعیت استفاده از ChatGPT برای کارکنان یکی از بزرگترین بخش‌های خود ارسال کرده است. این سند داخلی شرکت که بلافاصله توسط خبرگزاری بلومبرگ بررسی شد، بیان می‌کند که کمپانی سامسونگ به شکل جدی نگران نحوه ذخیره سازی داده‌های کاربران توسط سرویس‌های هوش مصنوعی مولد مانند ChatGPT و Google Bard است.

این شرکت همچنین درباره نحوه ذخیره سازی اطلاعات در این سرویس‌ها توضیح داده است. طبق گفته سامسونگ، اطلاعاتی که به پلتفرم‌های هوش مصنوعی مولد داده می‌شود در سرورهای خارجی ذخیره می‌شوند و این امر، بازیابی و حذف این اطلاعات را بسیار دشوار می‌کند، به همین دلیل ممکن است در نهایت این اطلاعات حساس برای سایر کاربران به دست این سرویس‌ها نمایش داده شوند و مورد سو استفاده قرار گیرند.

کمپانی سامسونگ به کارمندان خود گفته است: «علاقه به پلتفرم‌های هوش مصنوعی مولد مانند ChatGPT همواره در سرتاسر جهان در حال افزایش است. در حالی که این علاقه بر سودمندی و کارایی این پلتفرم‌ها متمرکز است، اما با این حال نگرانی‌های زیادی در مورد خطرات امنیتی که ممکن است توسط سرویس‌های هوش مصنوعی مولد ایجاد شوند وجود دارد که باید به آن توجه ویژه‌ای داشت.»

طبق سیاست جدید سامسونگ، کارکنان آن از استفاده از محصولات هوش مصنوعی در تلفن‌ها، تبلت‌ها، رایانه‌ها و شبکه داخلی شرکت منع شده‌اند. البته لازم به ذکر است که این قوانین جدید بر مصرف کنندگان محصولات این کمپانی تأثیر نخواهد گذاشت. در واقع، BingAI که مجهز به فناوری ChatGPT می‌باشد، اکنون در بخش مرکزی گوشی‌های هوشمند سامسونگ با ادغام در صفحه کلید SwiftKey وجود دارد. صفحه کلید SwiftKey مایکروسافت که از پیش بر روی آن سیستم OneUI نصب شده است، اکنون از هوش مصنوعی جدید Bing نیز بهره خواهد برد.

کمپانی سامسونگ در یادداشتی که به تازگی برای کارکنان خود ارسال کرده است گفته است: «ما از شما می‌خواهیم که با جدیت به دستورالعمل‌های امنیتی جدید ما پایبند باشید، زیرا عدم رعایت آن‌ها ممکن است منجر به نقض یا به خطر افتادن اطلاعات حساس و حیاتی شرکت شود، که نتیجه آن منجر به اقدامات انضباطی و یا حتی اخراج و پایان همکاری با شما خواهد شد.»

سامسونگ از ابزاری مانند ChatGPT استفاده خواهد کرد؟

طبق گزارشی که اخیرا توسط خبرگزاری بلومبرگ درباره اقدامات جدید کمپانی سامسونگ منتشر شده است، این شرکت به تازگی در حال کار بر روی توسعه ابزارهای هوش مصنوعی مولد خود، برای کارهایی از قبیل ترجمه و خلاصه‌سازی اسناد و همچنین توسعه نرم‌افزارهای تولید شده در این کمپانی می‌باشد.

بر اساس اطلاعاتی که درباره این ابزارها منتشر شده، هوش مصنوعی مولد کمپانی سامسونگ ممکن است تنها به استفاده از آن در این شرکت و برای کارکنان مشغول در آن محدود شود. درواقع اکنون مشخص نیست که آیا این کمپانی برنامه‌ای برای استفاده از این ابزارها در محصولات خود، برای مصرف کنندگان و خریداران تولیدات این شرکت خواهد داشت یا خیر. شاید در آینده بتوانیم از ابزارهای هوش مصنوعی سامسونگ در گوشی‌های هوشمند تولید شده توسط این کمپانی استفاده نماییم، اما با این حال، همچنان نشانه‌ای از این اتفاق از سوی کمپانی سامسونگ وجود ندارد و ممکن است هیچوقت شاهد همچین اتفاقی نباشیم.

منبع: androidauthority

ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید