دیجی رودیجی رو
  • اخبار تکنولوژی
    • اخبار داخلی
    • اخبار تلفن همراه
    • اخبار سخت افزار
    • اخبار اپلیکیشن‌ها
  • آموزش
  • بررسی محصولات
  • راهنمای خرید
  • سرگرمی
    • اخبار بازی
    • معرفی بازی
      • بازی موبایل
      • بازی دسکتاپ
      • بازی کنسول
    • معرفی اپلیکیشن
    • سینما و تلویزیون
  • دیجی فکت
  • دیجی لایف
  • دیجی10
  • مقالات گوناگون
خواندن: متخصصان AI به چت‌بات‌های هوش مصنوعی بی‌اعتمادند! دلایل پشت پرده چیست؟
به اشتراک بگذارید
ورود
اعلان نمایش بیشتر
تغییر اندازه فونتآآ
دیجی رودیجی رو
تغییر اندازه فونتآآ
جستجو
حساب کاربری دارید؟ ورود
دنبال کردن
تمامی حقوق برای رسانه دیجی‌رو محفوظ است. 1403 ©
اخبار هوش مصنوعی

متخصصان AI به چت‌بات‌های هوش مصنوعی بی‌اعتمادند! دلایل پشت پرده چیست؟

حسین محمودزاده 14 آذر 1404 ساعت 10:53
زمان مطالعه: 11 دقیقه
بی‌اعتمادی به چت‌بات‌های هوش مصنوعی
اشتراک گذاری
بلیط هواپیما سفرمارکت

از زمانی که شرکت اوپن ای‌آی (OpenAI) در نوامبر 2022 (آبان 1401) چت‌بات خود موسوم به ChatGPT را برای استفاده عمومی منتشر کرد، هوش مصنوعی (AI) جهان را مانند طوفانی درنوردید. پس از آن، شرکت‌های متعدد دیگری نیز چت‌بات‌های هوش مصنوعی اختصاصی خود را روانه بازار کردند تا سهمی از این بازار رو به رشد را از آن خود کنند. حتی با وجود بازیگران متعدد در این عرصه، آمارها نشان می‌دهد که ChatGPT به تنهایی روزانه بیش از 2.5 میلیارد درخواست دریافت می‌کند؛ رقمی خیره کننده که نشان دهنده میزان نفوذ و استفاده مردم از چت‌بات‌های هوش مصنوعی در زندگی روزمره است.

لیست
چرا متخصصان نسبت به چت‌بات‌های هوش مصنوعی تردید دارند؟توهم هوش مصنوعی (Hallucination)؛ پاشنه آشیل چت‌بات‌های هوش مصنوعیآیا باید به چت‌بات‌های هوش مصنوعی اعتماد کنید؟نقش داده‌های آموزشی در کاهش کیفیت و اعتماد به چت‌بات‌های هوش مصنوعیخطرات امنیتی و حریم خصوصی چت‌بات‌های هوش مصنوعیآمار نگران‌کننده انتشار اطلاعات کذب توسط چت‌بات‌های هوش مصنوعی

بر اساس داده‌های منتشر شده توسط OpenAI، کاربران چت‌بات‌های هوش مصنوعی عمدتاً از این ابزار برای کمک در کارهای روزمره استفاده می‌کنند و «سه چهارم مکالمات بر روی راهنمایی‌های عملی، جستجوی اطلاعات و نوشتن متمرکز است.» با وجود رشد نجومی استفاده از این چت‌بات‌های هوش مصنوعی در محیط‌های شخصی و حرفه‌ای، نکته‌ای تأمل‌برانگیز وجود دارد: بسیاری از افرادی که خود سازنده این سیستم‌ها هستند، اعتماد به چت‌بات‌های هوش مصنوعی را جایز نمی‌دانند و نسبت به آن‌ها بدبین هستند!

در حالی که بسیاری از ما به طور فزاینده‌ای به چت‌بات‌های هوش مصنوعی وابسته شده‌ایم و انجام وظایف حساسی مانند نوشتن گزارش‌های حقوقی را به آن‌ها می‌سپاریم، بحث‌های داغی پیرامون استفاده از این فناوری در جریان است. شاید تعجب‌آور باشد که بدانید بسیاری از کارشناسان و متخصصان هوش مصنوعی نسبت به این تکنولوژی شک و تردید دارند. طبق مقاله اخیر روزنامه گاردین (The Guardian)، برخی از این متخصصان حتی به دوستان و خانواده خود توصیه می‌کنند که به دلایل مختلف، به طور کلی از این ابزارهای هوش مصنوعی دوری کنند!

چرا متخصصان نسبت به چت‌بات‌های هوش مصنوعی تردید دارند؟

اگر گروهی وجود داشته باشد که چت‌بات‌های هوش مصنوعی را بهتر از هر کس دیگری بشناسد، بدون شک همان متخصصانی هستند که این سیستم‌ها را می‌سازند. این افراد مسئول جابجایی مرزهای تکنولوژی با هر مدل جدیدی هستند که به بازار عرضه می‌شود و همان کسانی هستند که به ارزیابی کیفیت خروجی برای دستیابی به نتایج بهتر کمک می‌کنند. روزنامه گاردین با متخصصان مختلفی در حوزه هوش مصنوعی گفتگو کرده است که شک و تردید خود را نسبت به این فناوری ابراز کرده‌اند. یکی از مضامین تکرارشونده در این گفتگوها این بود که چگونه شرکت‌ها سرعت تحویل کار را برای ارزیابان هوش مصنوعی (AI Raters) در اولویت قرار می‌دهند و آموزش و منابع کافی را برای ارائه بهترین خروجی در اختیار این کارمندان قرار نمی‌دهند.

بی‌اعتمادی به چت‌بات‌های هوش مصنوعی

بروک هنسن (Brook Hansen) در گفتگو با گاردین اظهار داشت:

از ما انتظار می‌رود که به بهتر شدن مدل کمک کنیم، اما اغلب دستورالعمل‌های مبهم یا ناقص، آموزش‌های حداقلی و محدودیت‌های زمانی غیرواقعی برای تکمیل وظایف به ما داده می‌شود.

این فشار کاری و عدم دقت در فرآیند آموزش مدل‌های زبانی بزرگ (LLM)، یکی از دلایل اصلی کاهش اعتماد به چت‌بات‌های هوش مصنوعی در میان خود دست‌اندرکاران است.

یکی دیگر از کارکنان فاش کرد که چگونه برخی از همکارانی که وظیفه رتبه‌بندی محتوای حساس پزشکی را بر عهده داشتند، از دانشی کاملاً ابتدایی درباره آن موضوع برخوردار بودند! انتقادات تنها به بخش رتبه‌بندی محدود نمی‌شود. یکی از ارزیابان هوش مصنوعی گوگل به گاردین گفت که نسبت به کل این فناوری بدبین شده است و پس از مشاهده کیفیت پایین داده‌های استفاده شده برای آموزش مدل‌ها، حتی به دوستان و خانواده‌اش توصیه می‌کند که از چت‌بات‌های هوش مصنوعی اجتناب کنند.

توهم هوش مصنوعی (Hallucination)؛ پاشنه آشیل چت‌بات‌های هوش مصنوعی

دلیل دیگری که چرا برخی از کارشناسان هوش مصنوعی اعتماد به چت‌بات‌های هوش مصنوعی را خطرناک می‌دانند، تمایل این مدل‌ها به «توهم» (Hallucination) است. در اصطلاح هوش مصنوعی، توهم به زمانی گفته می‌شود که مدل زبانی بزرگ (LLM) پاسخی را تولید می‌کند که از نظر ساختاری و گرامری صحیح و متقاعد کننده به نظر می‌رسد، اما از نظر محتوایی کاملاً غلط، ساختگی یا بی‌ارتباط با واقعیت است.

سام آلتمن (Sam Altman)، مدیرعامل OpenAI، در ویدیویی در یوتیوب بیان کرد که برای او جالب است که مردم درجه بالایی از اعتماد به ChatGPT دارند. از دیدگاه او، این اعتماد احتمالاً نابجاست، زیرا هوش مصنوعی دچار توهم می‌شود و نباید تا این حد به آن اعتماد کرد. آندری کارپاتی (Andrej Karpathy)، دانشمند محقق سابق و عضو بنیان‌گذار OpenAI و مدیر سابق بخش هوش مصنوعی تسلا، نیز در مقاله‌ای که در شبکه اجتماعی اکس (توییتر سابق) منتشر کرد، به برخی از محدودیت‌های هوش مصنوعی پرداخت و نسبت به استفاده از چت‌بات‌های هوش مصنوعی در محیط‌های تولیدی و عملیاتی بدون نظارت انسانی هشدار داد.

بی‌اعتمادی به چت‌بات‌های هوش مصنوعی

آیا باید به چت‌بات‌های هوش مصنوعی اعتماد کنید؟

پاسخ کوتاه «خیر» است. اگر متخصصانی که در این زمینه کار می‌کنند در مورد اعتماد به چت‌بات‌های هوش مصنوعی تردید دارند، شما نیز باید با احتیاط و شک و تردید به خروجی‌های چت‌بات‌های هوش مصنوعی نگاه کنید. در اوایل سال جاری میلادی، شاهد موارد متعددی از اشتباهات فاحش در بررسی‌های هوش مصنوعی گوگل (Google AI Overviews) بودیم؛ نشانه‌ای واضح که نباید خروجی‌های هوش مصنوعی را به عنوان حقیقت محض پذیرفت. به دلیل چنین اشتباهاتی، مواردی وجود دارد که هرگز نباید از ChatGPT یا هر چت‌بات هوش مصنوعی دیگری بپرسید، زیرا احتمال دریافت اطلاعات گمراه کننده بسیار زیاد است.

به عنوان مثال، مردیت بروسارد (Meredith Broussard)، دانشمند داده و استاد دانشگاه نیویورک (NYU)، در مصاحبه‌ای با MIT Technology Review توصیه کرد که از هوش مصنوعی برای پرسش‌های پیرامون مسائل اجتماعی استفاده نشود، زیرا این سوالات ذاتاً دارای ظرافت‌ها و پیچیدگی‌های بیشتری هستند که چت‌بات‌های هوش مصنوعی قادر به درک آن‌ها نیستند.

علاوه بر این، مطالعه‌ای که اخیراً توسط نیوزگارد (NewsGuard)، یک سازمان غیرانتفاعی سواد رسانه‌ای، انجام شده است، نشان می‌دهد که نرخ تکرار اطلاعات غلط توسط چت‌بات‌های هوش مصنوعی شرکت‌های بزرگ تقریباً دو برابر شده است! این نرخ از 18 درصد در اوت 2024 (مرداد 1403) به 35 درصد در اوت 2025 (مرداد 1404) افزایش یافته است. این آمار نگران کننده نشان می‌دهد که با وجود پیشرفت تکنولوژی، مشکل نشر اطلاعات نادرست توسط چت‌بات‌های هوش مصنوعی نه تنها حل نشده، بلکه وخیم‌تر هم شده است.

نقش داده‌های آموزشی در کاهش کیفیت و اعتماد به چت‌بات‌های هوش مصنوعی

یکی از عوامل کلیدی که متخصصان را نگران می‌کند، کیفیت داده‌هایی است که برای آموزش مدل‌های زبانی بزرگ (LLMs) استفاده می‌شود. این مدل‌ها با حجم عظیمی از داده‌های متنی از اینترنت تغذیه می‌شوند. اما اینترنت پر از اطلاعات نادرست، تعصبات، نظرات شخصی و محتوای بی‌کیفیت است. زمانی که مدل‌ها با این داده‌های “آلوده” آموزش می‌بینند، خروجی آن‌ها نیز می‌تواند منعکس کننده همان مشکلات باشد. این پدیده که در علم کامپیوتر به “Garbage In, Garbage Out” (زباله ورودی، زباله خروجی) معروف است، یکی از دلایل اصلی عدم اعتماد به چت‌بات‌های هوش مصنوعی توسط مهندسان سازنده آن‌هاست.

بی‌اعتمادی به چت‌بات‌های هوش مصنوعی

علاوه بر این، فرآیند “یادگیری تقویتی با بازخورد انسانی” (RLHF) که برای تنظیم دقیق این مدل‌ها استفاده می‌شود، نیز دارای نقص است. همانطور که در گزارش گاردین اشاره شده، ارزیابان انسانی که وظیفه بازخورد دادن به مدل را دارند، اغلب تحت فشار زمانی شدید هستند و ممکن است تخصص کافی در موضوعات خاص را نداشته باشند. این مسئله باعث می‌شود که مدل‌ها گاهی اوقات پاسخ‌هایی را یاد بگیرند که “مطلوب” به نظر می‌رسند اما لزوماً “صحیح” نیستند.

خطرات امنیتی و حریم خصوصی چت‌بات‌های هوش مصنوعی

علاوه بر مسائل مربوط به صحت اطلاعات، نگرانی‌های امنیتی و حریم خصوصی نیز دلیل دیگری برای عدم اعتماد به چت‌بات‌های هوش مصنوعی هستند. بسیاری از این سیستم‌ها مکالمات کاربران را ذخیره می‌کنند تا برای آموزش‌های بعدی استفاده شوند. وارد کردن اطلاعات حساس شخصی، مالی یا سازمانی در این چت‌بات‌های هوش مصنوعی می‌تواند ریسک بزرگی باشد. اخیراً گزارش‌های متعددی در وب‌سایت‌های فناوری منتشر شده که نشان می‌دهد برخی شرکت‌های بزرگ دسترسی کارمندان خود به چت‌بات‌های هوش مصنوعی عمومی را به دلیل ترس از نشت اطلاعات محرمانه محدود کرده‌اند! این اقدامات پیشگیرانه توسط شرکت‌های پیشرو تکنولوژی، خود گواهی بر این است که اعتماد بی قید و شرط به این ابزارها به هیچ وجه عاقلانه نیست.

آمار نگران‌کننده انتشار اطلاعات کذب توسط چت‌بات‌های هوش مصنوعی

گزارش نیوزگارد یافته‌های تکان دهنده‌ای را در مورد ChatGPT منتشر کرده است. طبق این گزارش، ChatGPT در 40 درصد مواقع تمایل به پخش ادعاهای نادرست داشته است. چنین آمارهایی دلیل اصلی هشدارهای چهره‌های برجسته دنیای فناوری است. حتی سوندار پیچای (Sundar Pichai)، مدیرعامل گوگل، نسبت به اعتماد کورکورانه به چت‌بات‌های هوش مصنوعی هشدار داده است. او تأکید دارد که این ابزارها هنوز در مراحل اولیه تکامل خود هستند و کاربران باید هوشیار باشند.

بنابراین، توصیه نهایی و قطعی متخصصان این است: تمام اطلاعات یا گفتگوهای به دست آمده از چت‌بات‌های هوش مصنوعی باید به صورت دستی برای صحت‌سنجی بررسی شوند. اعتماد به چت‌بات‌های هوش مصنوعی نباید جایگزین تفکر انتقادی و بررسی منابع معتبر شود. هوش مصنوعی می‌تواند ابزاری قدرتمند برای ایده پردازی، خلاصه سازی و کمک به کدنویسی باشد، اما هرگز نباید به عنوان تنها منبع حقیقت یا یک مرجع قابل اعتماد برای تصمیم‌گیری‌های حیاتی در نظر گرفته شود.

اخبار تکنولوژی
بلیط اتوبوس
تاکسی بین شهری
برچسب ها: هوش مصنوعی
این مقاله را به اشتراک بگذارید
توییتر Whatsapp Whatsapp تلگرام ایمیل کپی کرده لینک پرینت
چه حسی به این مطلب داری؟
Sad0
Sleepy0
Love0
Happy0
Angry0
Cry0
Surprise0
مقاله قبلی آلن دای، مدیر طراحی متا شوک بزرگ در دره سیلیکون! آلن دای، مدیر ارشد اپل، به عنوان مدیر طراحی متا منصوب شد
مقاله بعدی برندگان جوایز اپ استور 2025 برندگان جوایز اپ استور 2025 معرفی شدند؛ درخشش استراوا، اچ‌بی‌او مکس و پوکمون
نظر بدهید نظر بدهید

نظر بدهید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

لطفا یک امتیاز انتخاب کنید!

تبلیغات

موبوگیفت
  • خرید ممبر ایتا
  • خرید فالوور ایرانی
  • خرید فالوور ارزان
  • خرید ممبر تلگرام
  • خرید سرور اختصاصی
  • خرید بیت کوین
  • خرید لایک
  • چراغ پارکی
  • پنجره دوجداره
  • کاغذ A4
  • سرور اچ پی
  • فالوور روبیکا با کیفیت
  • تقویت انتن موبایل
  • مخزن کرایوژنیک
  • سرفیس پرو 12
  • خرید ممبر ایتا
  • دستگاه جوجه کشی دماوند
  • پیش بینی قیمت ارزها
  • ارز نئو رقیب قدرتمند اتریوم
  • ثروتمندان 2025 بیت کوین
  • قیمت یو اس دی کوین (USDC)
  • قوی ترین جهش ریپل
  • خرید سرور hp ماهان شبکه اچ پی

آخرین خبرها

برندگان جوایز اپ استور 2025

برندگان جوایز اپ استور 2025 معرفی شدند؛ درخشش استراوا، اچ‌بی‌او مکس و پوکمون

آلن دای، مدیر طراحی متا

شوک بزرگ در دره سیلیکون! آلن دای، مدیر ارشد اپل، به عنوان مدیر طراحی متا منصوب شد

جزئیات نمایشگر آیفون 17e

جزئیات نمایشگر آیفون 17e فاش شد؛ حاشیه‌های باریک‌تر و شراکت با BOE

مطالب مرتبط

هشدار امنیتی ویندوز 11
اخبار هوش مصنوعیمایکروسافت

هشدار امنیتی ویندوز 11؛ وقتی دستیار هوشمند شما به یک تهدید تبدیل می‌شود!

9 آذر 1404 ساعت 12:00
جیمیل
اخبار هوش مصنوعیگوگل

آیا گوگل از ایمیل‌های کاربران جیمیل برای آموزش هوش مصنوعی استفاده می‌کند؟

2 آذر 1404 ساعت 18:11
ویرایش عکس اپل با هوش مصنوعی
اخبار هوش مصنوعی

ویرایش عکس اپل با هوش مصنوعی؛ سیری به یک ادیتور حرفه‌ای تبدیل می‌شود

15 آبان 1404 ساعت 18:54
محتوای هوش مصنوعی
اخبار هوش مصنوعی

چه میزان از اینترنت را محتوای هوش مصنوعی تشکیل داده است؟

14 آبان 1404 ساعت 20:18

درباره دیجی‌رو

رسانه دیجی‌رو با شعار دنیای تکنولوژی در اوایل سال 94 تاسیس شد. ماموریت ما اطلاع رسانی صحیح و ارائه آخرین اخبار تکنولوژی، بررسی محصولات دیجیتال، راهنمای خرید کالاهای دیجیتال و همچنین تهیه به‌روزترین مطالب آموزشی و مقالات در حوزه تکنولوژی، علم و سبک زندگی است. گروه دیجی‌رو همه‌ی تلاش خود را به کار خواهد گرفت که روزبه‌روز بر کیفیت و خدمات این رسانه بیفزاید تا دیجی رو به عنوان رسانه‌ای معتبر بدرخشد.

logo-samandehi
دنبال کردن
تمامی حقوق برای رسانه دیجی‌رو محفوظ است. 1403 ©
خوش آمدید

ورود به حساب کاربری

فراموش رمز عبور