از زمانی که شرکت اوپن ایآی (OpenAI) در نوامبر 2022 (آبان 1401) چتبات خود موسوم به ChatGPT را برای استفاده عمومی منتشر کرد، هوش مصنوعی (AI) جهان را مانند طوفانی درنوردید. پس از آن، شرکتهای متعدد دیگری نیز چتباتهای هوش مصنوعی اختصاصی خود را روانه بازار کردند تا سهمی از این بازار رو به رشد را از آن خود کنند. حتی با وجود بازیگران متعدد در این عرصه، آمارها نشان میدهد که ChatGPT به تنهایی روزانه بیش از 2.5 میلیارد درخواست دریافت میکند؛ رقمی خیره کننده که نشان دهنده میزان نفوذ و استفاده مردم از چتباتهای هوش مصنوعی در زندگی روزمره است.
بر اساس دادههای منتشر شده توسط OpenAI، کاربران چتباتهای هوش مصنوعی عمدتاً از این ابزار برای کمک در کارهای روزمره استفاده میکنند و «سه چهارم مکالمات بر روی راهنماییهای عملی، جستجوی اطلاعات و نوشتن متمرکز است.» با وجود رشد نجومی استفاده از این چتباتهای هوش مصنوعی در محیطهای شخصی و حرفهای، نکتهای تأملبرانگیز وجود دارد: بسیاری از افرادی که خود سازنده این سیستمها هستند، اعتماد به چتباتهای هوش مصنوعی را جایز نمیدانند و نسبت به آنها بدبین هستند!
در حالی که بسیاری از ما به طور فزایندهای به چتباتهای هوش مصنوعی وابسته شدهایم و انجام وظایف حساسی مانند نوشتن گزارشهای حقوقی را به آنها میسپاریم، بحثهای داغی پیرامون استفاده از این فناوری در جریان است. شاید تعجبآور باشد که بدانید بسیاری از کارشناسان و متخصصان هوش مصنوعی نسبت به این تکنولوژی شک و تردید دارند. طبق مقاله اخیر روزنامه گاردین (The Guardian)، برخی از این متخصصان حتی به دوستان و خانواده خود توصیه میکنند که به دلایل مختلف، به طور کلی از این ابزارهای هوش مصنوعی دوری کنند!
چرا متخصصان نسبت به چتباتهای هوش مصنوعی تردید دارند؟
اگر گروهی وجود داشته باشد که چتباتهای هوش مصنوعی را بهتر از هر کس دیگری بشناسد، بدون شک همان متخصصانی هستند که این سیستمها را میسازند. این افراد مسئول جابجایی مرزهای تکنولوژی با هر مدل جدیدی هستند که به بازار عرضه میشود و همان کسانی هستند که به ارزیابی کیفیت خروجی برای دستیابی به نتایج بهتر کمک میکنند. روزنامه گاردین با متخصصان مختلفی در حوزه هوش مصنوعی گفتگو کرده است که شک و تردید خود را نسبت به این فناوری ابراز کردهاند. یکی از مضامین تکرارشونده در این گفتگوها این بود که چگونه شرکتها سرعت تحویل کار را برای ارزیابان هوش مصنوعی (AI Raters) در اولویت قرار میدهند و آموزش و منابع کافی را برای ارائه بهترین خروجی در اختیار این کارمندان قرار نمیدهند.
بروک هنسن (Brook Hansen) در گفتگو با گاردین اظهار داشت:
از ما انتظار میرود که به بهتر شدن مدل کمک کنیم، اما اغلب دستورالعملهای مبهم یا ناقص، آموزشهای حداقلی و محدودیتهای زمانی غیرواقعی برای تکمیل وظایف به ما داده میشود.
این فشار کاری و عدم دقت در فرآیند آموزش مدلهای زبانی بزرگ (LLM)، یکی از دلایل اصلی کاهش اعتماد به چتباتهای هوش مصنوعی در میان خود دستاندرکاران است.
یکی دیگر از کارکنان فاش کرد که چگونه برخی از همکارانی که وظیفه رتبهبندی محتوای حساس پزشکی را بر عهده داشتند، از دانشی کاملاً ابتدایی درباره آن موضوع برخوردار بودند! انتقادات تنها به بخش رتبهبندی محدود نمیشود. یکی از ارزیابان هوش مصنوعی گوگل به گاردین گفت که نسبت به کل این فناوری بدبین شده است و پس از مشاهده کیفیت پایین دادههای استفاده شده برای آموزش مدلها، حتی به دوستان و خانوادهاش توصیه میکند که از چتباتهای هوش مصنوعی اجتناب کنند.
توهم هوش مصنوعی (Hallucination)؛ پاشنه آشیل چتباتهای هوش مصنوعی
دلیل دیگری که چرا برخی از کارشناسان هوش مصنوعی اعتماد به چتباتهای هوش مصنوعی را خطرناک میدانند، تمایل این مدلها به «توهم» (Hallucination) است. در اصطلاح هوش مصنوعی، توهم به زمانی گفته میشود که مدل زبانی بزرگ (LLM) پاسخی را تولید میکند که از نظر ساختاری و گرامری صحیح و متقاعد کننده به نظر میرسد، اما از نظر محتوایی کاملاً غلط، ساختگی یا بیارتباط با واقعیت است.
سام آلتمن (Sam Altman)، مدیرعامل OpenAI، در ویدیویی در یوتیوب بیان کرد که برای او جالب است که مردم درجه بالایی از اعتماد به ChatGPT دارند. از دیدگاه او، این اعتماد احتمالاً نابجاست، زیرا هوش مصنوعی دچار توهم میشود و نباید تا این حد به آن اعتماد کرد. آندری کارپاتی (Andrej Karpathy)، دانشمند محقق سابق و عضو بنیانگذار OpenAI و مدیر سابق بخش هوش مصنوعی تسلا، نیز در مقالهای که در شبکه اجتماعی اکس (توییتر سابق) منتشر کرد، به برخی از محدودیتهای هوش مصنوعی پرداخت و نسبت به استفاده از چتباتهای هوش مصنوعی در محیطهای تولیدی و عملیاتی بدون نظارت انسانی هشدار داد.
آیا باید به چتباتهای هوش مصنوعی اعتماد کنید؟
پاسخ کوتاه «خیر» است. اگر متخصصانی که در این زمینه کار میکنند در مورد اعتماد به چتباتهای هوش مصنوعی تردید دارند، شما نیز باید با احتیاط و شک و تردید به خروجیهای چتباتهای هوش مصنوعی نگاه کنید. در اوایل سال جاری میلادی، شاهد موارد متعددی از اشتباهات فاحش در بررسیهای هوش مصنوعی گوگل (Google AI Overviews) بودیم؛ نشانهای واضح که نباید خروجیهای هوش مصنوعی را به عنوان حقیقت محض پذیرفت. به دلیل چنین اشتباهاتی، مواردی وجود دارد که هرگز نباید از ChatGPT یا هر چتبات هوش مصنوعی دیگری بپرسید، زیرا احتمال دریافت اطلاعات گمراه کننده بسیار زیاد است.
به عنوان مثال، مردیت بروسارد (Meredith Broussard)، دانشمند داده و استاد دانشگاه نیویورک (NYU)، در مصاحبهای با MIT Technology Review توصیه کرد که از هوش مصنوعی برای پرسشهای پیرامون مسائل اجتماعی استفاده نشود، زیرا این سوالات ذاتاً دارای ظرافتها و پیچیدگیهای بیشتری هستند که چتباتهای هوش مصنوعی قادر به درک آنها نیستند.
علاوه بر این، مطالعهای که اخیراً توسط نیوزگارد (NewsGuard)، یک سازمان غیرانتفاعی سواد رسانهای، انجام شده است، نشان میدهد که نرخ تکرار اطلاعات غلط توسط چتباتهای هوش مصنوعی شرکتهای بزرگ تقریباً دو برابر شده است! این نرخ از 18 درصد در اوت 2024 (مرداد 1403) به 35 درصد در اوت 2025 (مرداد 1404) افزایش یافته است. این آمار نگران کننده نشان میدهد که با وجود پیشرفت تکنولوژی، مشکل نشر اطلاعات نادرست توسط چتباتهای هوش مصنوعی نه تنها حل نشده، بلکه وخیمتر هم شده است.
نقش دادههای آموزشی در کاهش کیفیت و اعتماد به چتباتهای هوش مصنوعی
یکی از عوامل کلیدی که متخصصان را نگران میکند، کیفیت دادههایی است که برای آموزش مدلهای زبانی بزرگ (LLMs) استفاده میشود. این مدلها با حجم عظیمی از دادههای متنی از اینترنت تغذیه میشوند. اما اینترنت پر از اطلاعات نادرست، تعصبات، نظرات شخصی و محتوای بیکیفیت است. زمانی که مدلها با این دادههای “آلوده” آموزش میبینند، خروجی آنها نیز میتواند منعکس کننده همان مشکلات باشد. این پدیده که در علم کامپیوتر به “Garbage In, Garbage Out” (زباله ورودی، زباله خروجی) معروف است، یکی از دلایل اصلی عدم اعتماد به چتباتهای هوش مصنوعی توسط مهندسان سازنده آنهاست.
علاوه بر این، فرآیند “یادگیری تقویتی با بازخورد انسانی” (RLHF) که برای تنظیم دقیق این مدلها استفاده میشود، نیز دارای نقص است. همانطور که در گزارش گاردین اشاره شده، ارزیابان انسانی که وظیفه بازخورد دادن به مدل را دارند، اغلب تحت فشار زمانی شدید هستند و ممکن است تخصص کافی در موضوعات خاص را نداشته باشند. این مسئله باعث میشود که مدلها گاهی اوقات پاسخهایی را یاد بگیرند که “مطلوب” به نظر میرسند اما لزوماً “صحیح” نیستند.
خطرات امنیتی و حریم خصوصی چتباتهای هوش مصنوعی
علاوه بر مسائل مربوط به صحت اطلاعات، نگرانیهای امنیتی و حریم خصوصی نیز دلیل دیگری برای عدم اعتماد به چتباتهای هوش مصنوعی هستند. بسیاری از این سیستمها مکالمات کاربران را ذخیره میکنند تا برای آموزشهای بعدی استفاده شوند. وارد کردن اطلاعات حساس شخصی، مالی یا سازمانی در این چتباتهای هوش مصنوعی میتواند ریسک بزرگی باشد. اخیراً گزارشهای متعددی در وبسایتهای فناوری منتشر شده که نشان میدهد برخی شرکتهای بزرگ دسترسی کارمندان خود به چتباتهای هوش مصنوعی عمومی را به دلیل ترس از نشت اطلاعات محرمانه محدود کردهاند! این اقدامات پیشگیرانه توسط شرکتهای پیشرو تکنولوژی، خود گواهی بر این است که اعتماد بی قید و شرط به این ابزارها به هیچ وجه عاقلانه نیست.
آمار نگرانکننده انتشار اطلاعات کذب توسط چتباتهای هوش مصنوعی
گزارش نیوزگارد یافتههای تکان دهندهای را در مورد ChatGPT منتشر کرده است. طبق این گزارش، ChatGPT در 40 درصد مواقع تمایل به پخش ادعاهای نادرست داشته است. چنین آمارهایی دلیل اصلی هشدارهای چهرههای برجسته دنیای فناوری است. حتی سوندار پیچای (Sundar Pichai)، مدیرعامل گوگل، نسبت به اعتماد کورکورانه به چتباتهای هوش مصنوعی هشدار داده است. او تأکید دارد که این ابزارها هنوز در مراحل اولیه تکامل خود هستند و کاربران باید هوشیار باشند.
بنابراین، توصیه نهایی و قطعی متخصصان این است: تمام اطلاعات یا گفتگوهای به دست آمده از چتباتهای هوش مصنوعی باید به صورت دستی برای صحتسنجی بررسی شوند. اعتماد به چتباتهای هوش مصنوعی نباید جایگزین تفکر انتقادی و بررسی منابع معتبر شود. هوش مصنوعی میتواند ابزاری قدرتمند برای ایده پردازی، خلاصه سازی و کمک به کدنویسی باشد، اما هرگز نباید به عنوان تنها منبع حقیقت یا یک مرجع قابل اعتماد برای تصمیمگیریهای حیاتی در نظر گرفته شود.


