سامسونگ اخیراً شرایط استفاده از ChatGPT را که یک ربات گفتگوگر هوش مصنوعی است برای کارمندانش مهیا کرده تا بتواند به این ترتیب اقدام به سادهسازی برخی فرآیندها و تقویت بخش تولید تراشههایش شود. با این حال، تنها پس از گذشت سه هفته، سه مورد نشت اطلاعات محرمانه از صنایع نیمه هادی این شرکت گزارش شده که باعث نگرانیهایی در مورد امنیت دادهها و نقض محرمانگی گردیده است. با دیجی رو همراه باشید.
این نشت اطلاعات زمانی اتفاق افتاد که کارمندان سامسونگ اطلاعات حساسی مانند دادههای اندازهگیری تجهیزات نیمه هادی و کدهای منبع را در ChatGPT وارد کردند. در نتیجه، این اطلاعات به بخشی از دادههای یادگیری هوش مصنوعی تبدیل شد که نه تنها برای سامسونگ، بلکه برای هر کس دیگری که از ChatGPT استفاده میکند، قابل دسترسی است!
اولین نشت زمانی اتفاق افتاد که یکی از کارمندان بخش نیمه هادی یک سری کدهای منبع مربوط به پایگاه داده اندازهگیری تجهیزات نیمه هادی را در ChatGPT وارد کرد تا بتواند راهحلی سریع برای یک مشکل پیدا کند. نشت دوم نیز زمانی رخ داد که کارمند دیگری کد مربوط به بازده و بهینهسازی را وارد کرد و نشت سوم پس از درخواست یکی از کارکنان سامسونگ از ChatGPT جهت ایجاد صورتجلسه به وقوع پیوست.
سامسونگ بلافاصله اقداماتی را برای جلوگیری از افشای بیشتر اطلاعات انجام داده است. از جمله اینکه به کارمندان خود دستور داده در مورد دادههایی که با ChatGPT به اشتراک میگذارند کاملاً محتاط باشند و علاوه بر این ظرفیت هر ورودی چت هوش مصنوعی را به حداکثر 1024 بایت محدود کرده است. این شرکت همچنین تصریح کرده است هنگامی که اطلاعات به ربات هوش مصنوعی داده میشود، این اطلاعات به سرورهای خارجی منتقل میشوند و قابل بازیابی یا حذف نیستند.
این اتفاق بار دیگر اهمیت توجه به امنیت دادهها و همچنین الزام شرکتها به بررسی دقیق خطرات و مزایای بالقوه استفاده از رباتهای چت هوش مصنوعی در محل کار را برجسته میکند. در حالی که این رباتهای گفتگوگر مبتنی بر هوش مصنوعی میتوانند کارایی کارکنان را بهبود بخشیده و بسیاری از فرآیندها را سادهتر کنند، اما برای اطمینان از محرمانه ماندن اطلاعات حساس و تأمین امنیت آنها، نیاز به حفاظت و آموزش مناسب وجود دارد.