هوش مصنوعی چند وقتی است که بسیار جنجالی شده و با نفوذ در صنایع مختلف، روز به روز در حال تغییر دادن هر چه بیشتر جهان است. با این حال، همه این تغییرات لزوماً مثبت نیستند. در حالی که هوش مصنوعی فرصتهای جدید و هیجان انگیزی را در بسیاری از زمینهها پیش روی ما انسانها قرار میدهد، اما نمیتوانیم این واقعیت را نادیده بگیریم که این فناوری در حال حاضر فاقد سیستم سنجش معیارهای اخلاقی یا راستی آزمایی بوده و همین مسئله تصمیمگیری در استفاده از اطلاعات آن را سخت میکند.
دقیقاً به همین دلیل است که در جهان امروزی که روز به روز بیشتر به هوش مصنوعی متکی میشود، همیشه باید اطلاعات دریافتی خود را مورد راستی آزمایی قرار داده و از صحت آنها مطمئن شوید. چرا که برخی از ابزارهای هوش مصنوعی میتوانند اطلاعات را دستکاری کنند، به طور کلی درک متفاوت و اشتباهی از متن داشته باشند، و یا اینکه حتی به طور کامل اطلاعات غلط را در اختیار ما قرار دهند. بنابراین، اعتماد کورکورانه به هوش مصنوعی ایده بسیار بدی است و ما هم در ادامه قصد دارم با ارائه 6 دلیل مهم، بد بودن چنین ایدهای را ثابت کنیم. با ما در دیجی رو همراه باشید.
1. هوش مصنوعی میتواند کاملاً اشتباه کند!
مردم به طور فزایندهای در کارهای روزمره خود به رباتهای چت هوش مصنوعی متکی میشوند و از این ابزارها برای کارهایی مانند نوشتن متون، برنامهریزی قرار ملاقاتها و حتی برخی تصمیمگیریهای مهم خود استفاده میکنند. با این حال، راحتتر شدن کارها به واسطه ابزارهای هوش مصنوعی اغلب یک هزینه بزرگ و قابل توجه در پی دارد و آن هم اشتباهاتی است که این فناوری مرتکب میشود.
برای اثبات این موضوع، از ChatGPT خواستیم تا درباره اولین کتابی که برای یادگیری پایتون نوشته شده، ما را راهنمایی کند. پاسخی که هوش مصنوعی ارائه کرده به صورت زیر است:
در ابتدا ChatGPT کتاب Programming Python نوشته Mark Lutz را که در سال 1996 به چاپ رسیده به عنوان اولین کتاب در زمینه یادگیری پایتون معرفی کرده، اما بعد از اینکه به این جواب اعتراض کرده و آن را نادرست خواندیم، چت هوش مصنوعی بلافاصله پاسخ خود را تصحیح کرده و از کتاب An Introduction to Python نوشته Guido van Rossum (سال 1991) به عنوان اولین کتاب آموزش پایتون یاد کرد! بنابراین، با وجود اینکه در این مثال ChatGPT توانست اشتباه خود را تصحیح کند، اما این حقیقت مشخص شد که گاهی اوقات ابزارهای هوش مصنوعی میتوانند جواب کاملاً اشتباهی ارائه کنند.
رباتهای چت هوش مصنوعی اطلاعات محدودی دارند، اما به شکلی برنامهریزی شدهاند که به همه سؤالها پاسخ دهند! آنها برای پاسخ به سؤالات به دادههای آموزشی خود متکی هستند و در کنار آن، به واسطه فناوری یادگیری ماشینی میتوانند از تعاملاتی که با کاربران دارند اطلاعات جدیدی کسب کرده و آموزش ببینند. بنابراین، اگر هوش مصنوعی از پاسخ دادن امتناع کرده و بگوید جواب را نمیداند، نمیتواند خود را اصلاح کرده و چیزهای جدید یاد بگیرد! به همین دلیل است که این فناوری نوین گاهی اوقات به طور کامل اشتباه میکند و تلاش دارد تا از اشتباهاتش درس بگیرد.
درست است که ماهیت هوش مصنوعی در حال حاضر همین است، اما این موضوع میتواند بسیار دردسرساز باشد. چرا که اکثر مردم پاسخهایی را که دریافت میکنند، درست تلقی کرده و هیچ اقدامی برای راستی آزمایی آنها نمیکنند. بنابراین، واضح است که اشتباهات هوش مصنوعی میتواند منجر به ارائه اطلاعات نادرست شده و کاربران را گمراه کند.
2. به راحتی میتوان از هوش مصنوعی برای دستکاری اطلاعات استفاده کرد
بر کسی پوشیده نیست که هوش مصنوعی میتواند غیر قابل اعتماد و مستعد خطا باشد، اما یکی از بدترین ویژگیهای آن تمایل به دستکاری اطلاعات است! مشکل این است که هوش مصنوعی نمیتواند درک دقیق و کاملی از مفاهیم داشته باشد و همین مسئله باعث میشود تا اهمیت موضوعات را درک نکرده و واقعیتها را مطابق با اهداف خود تغییر دهد.
این دقیقاً همان چیزی است که در مورد بینگ چت مایکروسافت نیز اتفاق افتاد. ماجرا از این قرار است که یکی از کاربران توییتر به تازگی مدت زمان فیلم جدید آواتار را از بینگ چت درخواست کرده بود، اما این ربات چت هوش مصنوعی از ارائه اطلاعات خودداری کرده و مدعی شده بود که فیلم هنوز اکران نشده است!
مطمئناً برخی خواهند گفت این یک باگ یا یک اشتباه موردی است، اما نمیتوان این واقعیت را انکار کرد که فناوری هوش مصنوعی در حال حاضر ناقص است و باید با احتیاط زیاد از آن استفاده کنیم.
3. هوش مصنوعی میتواند مانع خلاقیت شما شود
امروزه بسیاری از افراد متخصص، مانند نویسندگان و طراحان، از هوش مصنوعی برای به حداکثر رساندن کارایی خود استفاده میکنند. با این حال، درک این نکته بسیار مهم است که باید به هوش مصنوعی باید به عنوان یک ابزار نگاه کرد و نه یک راه میانبر برای انجام دادن سریعتر کارها. درست است که راحتتر شدن کارها به وسیله هوش مصنوعی بسیار وسوسه انگیز به نظر میرسد، اما میتواند به شدت بر قدرت خلاقیت شما تأثیر منفی بگذارد.
وقتی از رباتهای چت هوش مصنوعی به عنوان یک میانبر استفاده میشود، افراد تمایل دارند به جای طرح ایدههای منحصر به فرد، محتوای آماده را کپی و جایگذاری کنند. این رویکرد ممکن است در ابتدا بسیار جذاب و وسوسه انگیز به نظر برسد زیرا باعث صرفهجویی در وقت و هزینه میشود، اما به هیچ عنوان ذهن را درگیر نمیکند و نمیتواند تفکر خلاق را ارتقا دهد.
به عنوان مثال، طراحان میتوانند از ابزار هوش مصنوعی Midjourney AI برای خلق آثار هنری استفاده کنند، اما تکیه صرف بر قابلیتهای هوش مصنوعی میتواند دامنه خلاقیت را محدود کند. به این ترتیب، به جای کاوش در ایدههای جدید، ممکن است در نهایت یک طراح فقط اقدام به کپی کردن طرحهای آماده کند که هیچ تأثیر مثبتی بر خلاقیت او نخواهد داشت. یا اگر یک نویسنده باشید، میتوانید از ChatGPT یا دیگر رباتهای چت هوش مصنوعی برای انجام تحقیقات خود استفاده کنید، اما اگر از آن به عنوان یک میانبر برای تولید محتوا استفاده کنید، مهارتهای نوشتاری شما دچار رکود میشوند.
بنابراین، استفاده از هوش مصنوعی به عنوان ابزاری برای تکمیل تحقیقات، بسیار مفید است در حالی که تکیه صرف به آن برای تولید محتوا اصلاً ایده خوبی نیست.
4. هوش مصنوعی به راحتی میتواند مورد سوء استفاده قرار بگیرد
هوش مصنوعی پیشرفتهای زیادی را در زمینههای مختلف به ارمغان آورده است. با این حال، مانند هر فناوری دیگری، خطر سوء استفاده از آن همواره وجود دارد و میتواند منجر به عواقب وخیمی شود.
ظرفیتهای بالای هوش مصنوعی برای آزار و اذیت، ایجاد ترس و ارعاب و اخاذی از افراد به یک نگرانی مهم در دنیای مدرن تبدیل شده است. تاکنون نمونههای زیادی از سوء استفاده از هوش مصنوعی جهت ایجاد دیپ فیک، حملات DoS و غیره مشاهده شده و نباید این تهدیدها را نادیده گرفت.
به عنوان یک مثال رایج، استفاده از دیپ فیک برای تولید عکسهای نامناسب از زنان بسیار زیاد شده و روند نگران کنندهای دارد. مجرمان سایبری همچنین از حملات DoS مبتنی بر هوش مصنوعی برای جلوگیری از دسترسی کاربران قانونی به شبکههای خاص استفاده میکنند. چنین حملاتی به طور فزایندهای پیچیدهتر میشوند و جلوگیری از آنها نیز چالش برانگیز است، زیرا هوش مصنوعی میتواند ویژگیهایی شبیه به انسان از خود نشان دهد.
علاوه بر همه اینها، در دسترس بودن هوش مصنوعی و امکان استفاده عمومی از قابلیتهای آن، هر کسی را قادر میسازد تا به فناوریهایی مانند تشخیص چهره و تصویر دسترسی داشته باشد که این مسئله به نوبه خود خطر امنیت سایبری قابل توجهی در پی دارد. زیرا گروههای تروریستی نیز میتوانند از این فناوریها برای انجام حملات خود استفاده کنند.
5. درک محدود از موضوعات و مفاهیم
همانطور که قبلاً هم ذکر شد، هوش مصنوعی درک بسیار محدودی از موضوعات دارد که همین مسئله میتواند چالش مهمی در تصمیمگیریها و حل مسئله توسط این فناوری باشد. حتی اگر اطلاعات متنی کاملی را در اختیار هوش مصنوعی قرار دهید، این ابزار قادر نخواهد بود نکات ظریف داخل متن را تشخیص بدهد و از همین رو امکان دارد اطلاعات نادرست یا ناقصی را ارائه دهد که میتوانند منجر به نتیجهگیری یا تصمیمگیری اشتباه شوند.
به همین دلیل است که هوش مصنوعی بر اساس الگوریتمهای از پیش برنامهریزی شدهای عمل میکند که برای تجزیه و تحلیل و پردازش دادهها به مدلهای آماری و تشخیص الگو متکی هستند.
به عنوان مثال، یک ربات چت را در نظر بگیرید که برای پاسخ دادن به سؤالات مشتریان در مورد یک محصول خاص برنامهریزی شده است. با اینکه هوش مصنوعی میتواند به سؤالات اولیه در مورد ویژگیها و مشخصات محصول پاسخ دهد، اما ممکن است در ارائه توصیه شخصی به مشتریان بر اساس نیازها و سلایق آنها مشکل داشته باشد.
6. هوش مصنوعی نمیتواند جایگزین قضاوت انسانی شود
وقتی صحبت از سؤالات پیچیده یا تصمیمگیریهای مهم بر اساس ترجیحات ذهنی به میان میآید، اتکای کامل به هوش مصنوعی میتواند بسیار مخاطرهآمیز باشد.
درخواست از یک سیستم هوش مصنوعی برای تعریف مفهوم دوستی یا انتخاب بین دو مورد بر اساس معیارهای ذهنی میتواند کار بیهودهای باشد. به این دلیل که هوش مصنوعی فاقد توانایی درک احساسات انسانی، مفاهیم و سایر عناصر ناملموسی است که برای درک و تفسیر چنین مفاهیمی ضرورت دارند.
به عنوان مثال، اگر از هوش مصنوعی بخواهید که از بین دو کتاب یکی را انتخاب کند، ممکن است یکی از آنها را بر اساس رتبه و امتیازی که در سایتها و سایر مراجع به دست آورده، به شما توصیه کند، اما به هیچ وجه قادر نخواهد بود با در نظر گرفتن سلیقه شخصی، سبک مورد علاقه یا هدفی که به دنبال آن هستید، کتابی را به شما پیشنهاد دهد.
از سوی دیگر، یک منتقد انسانی میتواند با ارزیابی ارزش ادبی، ارتباط آن با علایق خواننده و سایر عوامل ذهنی که به طور عینی قابل اندازهگیری نیستند، بررسی دقیقتر و شخصیتری از یک کتاب ارائه دهد و شما به عنوان یک خواننده میتوانید در انتخاب خود بهتر و دقیقتر عمل کنید.
مراقب هوش مصنوعی باشید
در حالی که هوش مصنوعی ثابت کرده که یک ابزار فوق العاده قدرتمند در زمینههای مختلف است، آگاهی از محدودیتها و اشتباهات احتمالی آن ضروری است. اعتماد کورکورانه به هوش مصنوعی میتواند بسیار مخاطرهآمیز بوده و عواقب قابل توجهی در پی داشته باشد، زیرا این فناوری هنوز در مراحل ابتدایی خود است و تا کامل شدن فاصله زیادی دارد.
به یاد داشته باشید که هوش مصنوعی تنها یک ابزار است و نه جایگزینی برای تخصص و قضاوت انسانی. بنابراین سعی کنید از این فناوری نوین فقط به عنوان یک مکمل در تحقیقات خود استفاده کنید و برای تصمیم گیریهای مهم تنها به آن متکی نباشید. تا زمانی که از نواقص و کاستیهای هوش مصنوعی آگاه بوده و هوشمندانه از آن استفاده کنید، یک گام از بقیه جلوتر بوده و در کارهایتان عملکرد بسیار بهتری خواهید داشت.