هوش مصنوعی این روزها به سوژهای داغ در دنیای تکنولوژی تبدیل شده و این پتانسیل را دارد که با ایجاد تحول و انقلاب در تقریباً تمامی صنایع، بسیاری از جنبههای زندگی انسانها را به شدت بهبود ببخشد. اما، با این حال مانند هر فناوری دیگری، هوش مصنوعی هم کاملاً بدون خطر نیست. در حال حاضر دو رویکرد متفاوت در مورد هوش مصنوعی و خطرات آن وجود دارد. از یک سو انبوهی از کارشناسان در مورد خطر بالقوه هوش مصنوعی هشدار میدهند و از سوی دیگر، بسیاری ادعا میکنند که این هشدارها بیمورد هستند و هیچ خطری حداقل در آینده نزدیک از سوی هوش مصنوعی وجود ندارد.
بنابراین، سؤالی و ابهامی که ممکن است برای بسیاری ایجاد شود این است که آیا نگرانی در مورد هوش مصنوعی جدی است یا خیر؟ برای اینکه موضوع شفافتر شود، در این مقاله از دیجی رو قصد داریم پنج خطر اصلی هوش مصنوعی را بیان کرده و وضعیت فناوری فعلی را در هر یک از این بخشها تشریح کنیم. پس در ادامه با ما همراه باشید.
چگونه هوش مصنوعی میتواند خطرناک باشد؟
هوش مصنوعی روز به روز پیچیدهتر میشود و این میتواند خطراتی خفیف (مثلاً از بین رفتن یا تغییر ماهیت برخی مشاغل انسانی) تا خطرات فاجعهبار را در پی داشته باشد. سطح خطری که میتواند از سوی هوش مصنوعی ما انسانها را تهدید کند، بسیار مورد بحث است زیرا در حال حاضر درک عمومی واحد (و اجماع) در مورد این فناوری وجود ندارد.
به طور کلی تصور میشود که هوش مصنوعی از دو جهت میتواند خطرناک باشد:
- از هوش مصنوعی برای انجام کارهای مخرب استفاده شود.
- با وجود اینکه هوش مصنوعی به گونهای برنامهریزی شده که مفید باشد، اما ممکن است در این بین به صورت ناخواسته کاری مخرب را نیز انجام دهد.
این خطرات با پیچیدهتر شدن نرم افزار هوش مصنوعی بیشتر هم میشوند. جالب است بدانید که یک استدلال فرضی کلاسیک با نام «بیشینهسازی گیره کاغذ» نیز در این مورد مطرح شده است. در این آزمایش فکری، چنین بیان میشود که فرض کنید یک هوش مصنوعی فوق هوشمند برای به حداکثر رساندن تعداد گیرههای کاغذ در جهان برنامهریزی شده باشد. اگر این هوش مصنوعی به اندازه کافی هوشمند باشد، میتواند برای رسیدن به این هدف کل جهان را نابود کند!
اما، در حال حاضر مقایسه هوش مصنوعی فعلی با چنین فناوری فوق هوشمندی به نظر درست نیست و نمیتوان خطرات فرضی را به هوش مصنوعی کنونی ربط داد. بنابراین، بهتر است واقعگراتر بوده و به آن دسته از خطراتی که هم اکنون میتواند ما را تهدید کند بپردازیم.
1. اتوماسیون و از بین رفتن مشاغل
اتوماسیون یا خودکارسازی کارها یکی از خطرات هوش مصنوعی است که جامعه انسانی را تحت تأثیر قرار داده است. از کارخانههای بزرگ گرفته تا خودروهای خودران، فرایند اتوماسیون دههها است که شروع شده و این روند روز به روز در حال تسریع است. مطالعه موسسه بروکینگز در سال 2019 نشان داد که به واسطه پیشرفت اتوماسیون 36 میلیون شغل ممکن است در سالهای آینده در معرض خطر قرار بگیرد.
مسئله اصلی این است که در بسیاری از کارها، سیستمهای هوش مصنوعی بهتر از انسان عمل میکنند. آنها ارزانتر، کارآمدتر و دقیقتر از نیروی انسانی هستند. به عنوان مثال، هوش مصنوعی مدتها است که در تشخیص جعل آثار هنری به کار گرفته میشود و بهتر از متخصصان انسانی عمل میکند. در تازهترین مورد نیز از این فناوری در تشخیص تومورها بر اساس تصاویر رادیوگرافی استفاده میشود که نتایج بسیار دقیقتری دارد.
بیشتر بخوانید:
با اینکه با پیشرفت هوش مصنوعی برخی مشاغل انسانی از بین خواهند رفت، اما در مقابل رشتههای شغلی جدیدی ایجاد خواهند شد. اما مشکل بعدی این است که با تغییرات شغل حاصل از اتوماسیون، بسیاری از کارگرانی که شغل خود را از دست میدهند، به دلیل نداشتن معلومات یا تخصص مورد نیاز، واجد شرایط مشاغل جدیدی که در کنار هوش مصنوعی ایجاد میشود، نیستند.
همانطور که سیستمهای هوش مصنوعی به پیشرفت خود ادامه میدهند، در انجام کارها نیز بسیار ماهرتر از انسانها خواهند شد. این فناوری میتواند در تشخیص الگوها و یا ارائه پیشبینیها بسیار دقیق باشد و در نتیجه، تغییرات شغلی ناشی از آن میتواند منجر به افزایش نابرابری اجتماعی شده و حتی ممکن است فاجعه اقتصادی را به دنبال داشته باشد.
2. امنیت و حریم خصوصی
در سال 2020، دولت بریتانیا گزارشی را درباره هوش مصنوعی و تأثیر آن در امنیت ملی بریتانیا منتشر کرد که در آن بر ضرورت استفاده از هوش مصنوعی در بخش امنیت سایبری بریتانیا جهت شناسایی و کاهش تهدیدهایی که به سرعت واکنش بیشتری نسبت به توانایی تصمیمگیری انسانی نیاز دارند، تاکید شده بود.
در واقع، مسئله این است که باید در کنار افزایش نگرانیهای امنیتی مبتنی بر هوش مصنوعی، اقدامات پیشگیرانه مبتنی بر هوش مصنوعی نیز افزایش مییابد. تا زمانی که نتوانیم اقداماتی را برای محافظت از خود در برابر خطرات هوش مصنوعی ایجاد کنیم، بیشتر از آنکه بتوانیم از این فناوری بهره ببریم، از آن آسیب خواهیم دید.
از طرف دیگر، این سوال نیز مطرح میشود که چگونه باید سیستمهای هوش مصنوعی را ایمن کنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر مخاطرات امنیتی مختلف استفاده میکنیم، باید اطمینان حاصل کنیم که خود هوش مصنوعی نیز در برابر تهدیدها ایمن است. به عبارت دیگر، اگر تأمین امنیت خود را به هوش مصنوعی میسپاریم باید از ایمن بودن خود این فناوری و نفوذ نکردن مجرمان در آن نیز مطمئن شویم.
وقتی صحبت از حریم خصوصی به میان میآید، پیش از این هم شرکتها و دولتهای بزرگ به خاطر نقض حریم خصوصی شهروندان مورد انتقاد بودند و این شرایط با ظهور فناوری هوش مصنوعی میتواند بسیار بدتر شود. با وجود حجم بسیار بالای دادههای شخصی که در حال حاضر به صورت آنلاین در دسترس است (روزانه 2.5 میلیون ترابایت داده ایجاد میشود)، الگوریتمهای هوش مصنوعی میتوانند به راحتی برای هر کاربر یک پروفایل خاص ایجاد کرده و به عنوان مثال از آن برای ارائه تبلیغات فوق العاده هدفمند استفاده کنند.
فناوری تشخیص چهره نیز در حال حاضر فوق العاده پیچیده است و دوربینها میتوانند افراد را در زمان واقعی و بدون هیچ وقفهای شناسایی کنند. برخی از نیروهای پلیس در سراسر جهان از عینکهای هوشمند با نرم افزار تشخیص چهره استفاده میکنند که به راحتی میتواند مجرمان تحت تعقیب یا مظنونین را شناسایی و برچسبگذاری کند.
با اینکه این کاربردهای هوش مصنوعی در نگاه اول بسیار مفید به نظر میرسند اما اوضاع وقتی نگران کننده میشود که تصویر کنیم چنین فناوریهای فوق هوشمندی در اختیار افراد و گروههای خرابکار قرار بگیرد. مطمئناً در کنار استفادههای مفید فراوانی که هوش مصنوعی میتواند داشته باشد، امکان سوء استفادههای زیادی نیز در جهت نقض حریم خصوصی کاربران وجود دارد.
3. بدافزارهای مبتنی بر هوش مصنوعی
هوش مصنوعی در کنار کارکردهای مفید خود، به طور فزایندهای در هک کردن سیستمهای امنیتی و شکستن رمزگذاری عبور نیز بهتر و بهتر میشود. یکی از راههایی که این اتفاق میافتد، از طریق «تکامل» بدافزارها به کمک الگوریتمهای یادگیری ماشینی است. به این صورت که بدافزارها میتوانند از طریق آزمون و خطا یاد بگیرند که چه روشهایی جواب میدهد و چه روشهایی کار نمیکند. به این ترتیب، این بدافزارها به مرور زمان خطرناکتر میشوند.
در این بین، فناوریهای هوشمند جدیدتر مانند خودروهای خودران، به طور بالقوه یک هدف پرخطر برای این نوع حملات ارزیابی میشوند. چرا که افراد خرابکار به کمک توسعه بدافزارهای مبتنی بر هوش مصنوعی قادر خواهند بود باعث ایجاد تصادف یا راهبندان شوند. در عین حالی که هر روز بیشتر و بیشتر به فناوریهای هوشمند متصل به اینترنت وابسته میشویم، زندگی روزمره ما بیشتر تحت تأثیر چنین اختلالاتی خواهد بود.
باز هم، تنها راه حل واقعی برای مقابله با این خطر این است که هوش مصنوعیهای ضد بدافزار برای محافظت از افراد و مشاغل از هوش مصنوعی به کار رفته در بدافزارها بهتر عمل کند.
4. سلاحهای خودمختار
سلاحهای خودمختار، یعنی سلاحهایی که به جای نیروی انسانی توسط سیستمهای هوش مصنوعی کنترل میشوند، مدت زیادی است که طراحی شدهاند و صدها کارشناس فناوری از سازمان ملل خواستهاند تا راهی برای محافظت از بشریت در برابر خطرات ناشی از این سلاحها ایجاد کند.
ارتشهای دولتی در سراسر جهان در حال حاضر به سیستمهای تسلیحاتی مختلف مبتنی بر هوش مصنوعی یا نیمه کنترل شده مانند پهپادهای نظامی دسترسی دارند. پیشرفتها در این حوزه حتی به حدی بوده که با استفاده از نرم افزار تشخیص چهره، پهپادها میتوانند یک فرد خاص را ردیابی کنند.
حال، به نظر شما چه اتفاقی میافتد وقتی به الگوریتمهای هوش مصنوعی اجازه بدهیم تا بدون هیچگونه دخالت انسانی درباره مرگ و زندگی افراد تصمیم بگیرند؟!
همچنین به کمک هوش مصنوعی امکان سفارشی کردن فناوریهای مصرفی (مانند هواپیماهای بدون سرنشین) برای پرواز مستقل و انجام خودکار برخی کارها وجود دارد. این تواناییها هم اگر در دست افراد خرابکار باشند، میتوانند امنیت مردم جهان را به صورت مداوم تحت تاثیر قرار دهند.
5. دیپ فیک، اخبار جعلی و امنیت سیاسی
نرم افزار بازسازی صورت (که بیشتر به عنوان فناوری دیپ فیک شناخته میشود) روز به روز پیشرفتهتر شده و تفکیک آن از واقعیت سختتر میشود. با اینکه دیپ فیک محدودیت خاصی ندارد اما در حال حاضر خطرات ناشی از آن بیشتر افراد مشهور و رهبران جهان را تحت تاثیر قرار میدهد و به نظر میرسد زمان زیادی باقی مانده تا افراد عادی را نیز درگیر کند. به عنوان مثال، کلاهبرداران در حال حاضر قادرند تنها با استفاده از یک عکس پروفایل ساده، ویدیوهایی جعلی ساخته و به وسیله آنها اقدام به باجگیری و کلاهبرداری از افراد کنند.
اما این تنها خطر دیپ فیک نیست. هوش مصنوعی میتواند عکسها را بازسازی و ویرایش کند، متن بنویسد، صداها را شبیهسازی کند و به طور خودکار تبلیغات هدفمند تولید کند. قبلاً هم دیدهایم که برخی از این خطرات چگونه میتوانند به شکل قابل توجهی بر جامعه تأثیرگذار باشند.
کاهش خطرات ناشی از هوش مصنوعی
با افزایش پیچیدگی و تواناییهای هوش مصنوعی، پیشرفتهای مثبت زیادی در حال انجام است. اما متأسفانه، فناوریهای نوظهور و قدرتمند همیشه در معرض خطر سوء استفاده قرار دارند. این خطرات تقریباً بر تمامی جنبههای زندگی روزمره ما، از حریم خصوصی گرفته تا امنیت سیاسی و اتوماسیون شغلی، تأثیر میگذارد.
اولین قدم در کاهش خطرات ناشی از هوش مصنوعی این است که تصمیم بگیریم در کجا میخواهیم از هوش مصنوعی استفاده شود و کجا باید از آن جلوگیری کرد. افزایش تحقیقات و بحث در مورد سیستمهای هوش مصنوعی و قانونگذاری در این زمینه اولین گام در جهت جلوگیری از سوء استفادههای احتمالی خواهد بود.
نظر شما چیست؟ آیا هوش مصنوعی را یک خطر بالقوه برای جامعه انسانی میدانید یا فکر میکنید فواید آن بیشتر از مضراتش خواهد بود؟ نظرات خود را حتماً از طریق بخش کامنتها در انتهای همین مطلب با ما و دیگر خوانندگان دیجی رو در میان بگذارید.
هوش مصنوعی یک قابلیت بی نظیر است برای انجام هر کاری ذات برخی انسان ها میل به کارهای منفی دارد پس نمیشه منکر این شد که دیر یا زود کاربردهای منفی و مثبت این قابلیت هردو به موازات هم رخ نماییی خواهد کرد