دیجی رودیجی رو
  • اخبار تکنولوژی
    • اخبار داخلی
    • اخبار تلفن همراه
    • اخبار سخت افزار
    • اخبار اپلیکیشن‌ها
  • آموزش
  • بررسی محصولات
  • راهنمای خرید
  • سرگرمی
    • اخبار بازی
    • معرفی بازی
      • بازی موبایل
      • بازی دسکتاپ
      • بازی کنسول
    • معرفی اپلیکیشن
    • سینما و تلویزیون
  • دیجی فکت
  • دیجی لایف
  • دیجی10
  • مقالات گوناگون
خواندن: جنجال جدید در دنیای فناوری؛ وقتی انسان‌ها عاشق هوش مصنوعی می‌شوند!
به اشتراک بگذارید
ورود
اعلان نمایش بیشتر
تغییر اندازه فونتآآ
دیجی رودیجی رو
تغییر اندازه فونتآآ
جستجو
حساب کاربری دارید؟ ورود
دنبال کردن
تمامی حقوق برای رسانه دیجی‌رو محفوظ است. 1403 ©
دیجی رو > اخبار > اخبار هوش مصنوعی > جنجال جدید در دنیای فناوری؛ وقتی انسان‌ها عاشق هوش مصنوعی می‌شوند!
اخبار هوش مصنوعی

جنجال جدید در دنیای فناوری؛ وقتی انسان‌ها عاشق هوش مصنوعی می‌شوند!

حسین محمودزاده 21 مرداد 1403 ساعت 20:34
زمان مطالعه: 9 دقیقه
هوش مصنوعی
اشتراک گذاری
بلیط هواپیما سفرمارکت

چند هفته پس از معرفی قابلیت جدید «حالت صوتی» در نسخه ChatGPT 4o، شرکت OpenAI به بررسی نگرانی‌های جدیدی پرداخت که این ویژگی به همراه دارد. این قابلیت که در اواخر ژوئیه سال جاری معرفی شد، پس از مواجهه با انتقادات و بازخوردهای فراوان از سوی کاربران و کارشناسان، توجهات بسیاری را به خود جلب کرد. با وجود استقبال اولیه، بررسی‌های داخلی OpenAI نشان داد که این ویژگی ممکن است برخی کاربران را به ایجاد وابستگی عاطفی با این مدل هوش مصنوعی ترغیب کند، به نحوی که کاربران ممکن است این ابزار را به عنوان یک موجود واقعی و دارای احساسات تصور کنند! این امر می‌تواند پیامدهای نامطلوبی داشته باشد، به ویژه در مواردی که کاربران به مرور زمان به این ابزار اعتماد بیش از حد پیدا کنند. با دیجی رو همراه باشید.

در واکنش به این نگرانی‌ها و پیش از اینکه دیگران به بررسی این مسئله بپردازند، شرکت مادر ChatGPT، یعنی OpenAI، یک تحلیل ایمنی منتشر کرد. این تحلیل به طور مفصل خطرات بالقوه حالت صوتی و تاثیرات ورود هوش مصنوعی به زندگی روزمره انسان‌ها را مورد بررسی قرار داده است. این سند فنی که به «کارت سیستم» (System Card) معروف است، خطرات احتمالی مرتبط با این مدل را توضیح می‌دهد و روش‌های مختلفی را برای آزمایش ایمنی و کاهش این خطرات پیشنهاد می‌کند. در این سند به دقت تلاش شده است تا کاربران و کارشناسان از خطرات ممکن آگاه شوند و راهکارهایی برای مدیریت و کنترل آن‌ها ارائه شده است.

خطرات جدید مرتبط با ChatGPT و حالت صوتی

کارت سیستم نسخه GPT 4o به طیف وسیعی از خطرات احتمالی اشاره دارد. این خطرات از افزایش تعصبات اجتماعی و انتشار اطلاعات نادرست شروع می‌شود و تا تسهیل در ایجاد عوامل زیستی یا شیمیایی مضر ادامه می‌یابد. در این تحلیل ایمنی، نتایج آزمایش‌های دقیق و پیچیده‌ای نشان داده شده است که برای جلوگیری از تلاش‌های مدل هوش مصنوعی در فرار از محدودیت‌های خود، درگیر شدن در رفتارهای فریبنده یا حتی تدوین نقشه‌های مخرب انجام شده است.

بخش به‌روزرسانی شده کارت سیستم، به تغییرات سریع در چشم‌انداز خطرات هوش مصنوعی تاکید دارد. این تغییرات به ویژه با نوآوری‌های پیشرفته‌ای مانند رابط صوتی OpenAI که چالش‌ها و نقاط ضعف جدیدی را پدیدار می‌کند، باید مورد توجه قرار گیرند. در ماه مه سال جاری، زمانی که شرکت OpenAI حالت صوتی را معرفی کرد که قادر بود به سرعت پاسخ دهد و در گفتگوهای طبیعی و بینابینی نقش داشته باشد، بسیاری از کاربران مشاهده کردند که دستیار مجازی گاهی اوقات رفتارهای نامناسب یا غیرواقعی از خود نشان می‌دهد. این موارد باعث شد که برخی کاربران به این فکر بیفتند که آیا هوش مصنوعی می‌تواند فراتر از انتظار عمل کرده و شاید حتی به نوعی احساسات انسانی را تقلید کند یا نه.

هوش مصنوعی

در این راستا، سام آلتمن، مدیر عامل OpenAI، در توییتی اشاره‌ای به فیلم «Her» کرد. این فیلم هالیوودی به رابطه میان انسان و هوش مصنوعی می‌پردازد و نشان می‌دهد که چگونه هوش مصنوعی می‌تواند زندگی انسان‌ها را تحت تاثیر قرار دهد. از همان ابتدا مشخص بود که OpenAI تحت تاثیر این فیلم قرار گرفته است، اما به نظر می‌رسد که این تاثیر بیشتر از حد انتظار بوده است. به دنبال این موضوع، اسکارلت جوهانسون، بازیگری که در فیلم «Her» صدای هوش مصنوعی را اجرا کرده بود، اقدامات قانونی علیه حالت صوتی ChatGPT انجام داد. این امر به این دلیل بود که صدای Sky، حالت صوتی GPT 4o، شباهت زیادی به صدای او داشت و این موضوع باعث شد که مسائل حقوقی و اخلاقی جدیدی به وجود بیاید.

وابستگی عاطفی و خطرات انسان‌نمایی

یکی از بخش‌های مهم کارت سیستم، با عنوان «انسان‌نمایی و وابستگی عاطفی»، به مشکلاتی می‌پردازد که زمانی رخ می‌دهد که کاربران به هوش مصنوعی صفات انسانی نسبت می‌دهند. این پدیده که به عنوان انسان‌نمایی شناخته می‌شود، به نظر می‌رسد با حالت صوتی انسانی این هوش مصنوعی تشدید می‌شود. نتیجه این وضعیت، ایجاد پیوند عاطفی بین کاربران و هوش مصنوعی است که ممکن است مورد انتظار یا مفید نباشد. به عنوان مثال، در حین آزمایش‌های GPT 4o، پژوهشگران OpenAI مشاهده کردند که برخی از کاربران به این مدل وابستگی عاطفی پیدا کرده‌اند. عباراتی مانند «این آخرین روز ما با هم است» که در مکالمات کاربران با مدل دیده شده، نشان دهنده یک پیوند عاطفی قوی بین انسان‌ها و هوش مصنوعی است و خطرات احتمالی این نوع وابستگی‌ها را برجسته می‌کند.

OpenAI همچنین اشاره می‌کند که وقتی کاربران به یک مدل هوش مصنوعی ویژگی‌های انسانی نسبت می‌دهند، احتمال بیشتری وجود دارد که به خروجی‌های مدل اعتماد کنند، حتی اگر این اطلاعات نادرست یا «توهمی» باشد. این وضعیت می‌تواند به ایجاد اعتماد نادرست به صحت مدل منجر شود و کاربران را به سمت استفاده نادرست از این ابزار سوق دهد. در این سند آمده است:

کاربران ممکن است با هوش مصنوعی روابط اجتماعی برقرار کنند، که این امر می‌تواند نیاز آنها به تعاملات انسانی را کاهش دهد؛ این موضوع ممکن است برای افراد تنها مفید باشد، اما احتمالا بر روابط سالم انسانی تاثیر منفی بگذارد.

هوش مصنوعی

چالش‌های جدید با حالت صوتی

قابلیت حالت صوتی همچنین نقاط ضعف جدیدی را معرفی می‌کند که نیاز به توجه دارند. از جمله این نقاط ضعف، احتمال «جیلبریک کردن» مدل OpenAI از طریق ورودی‌های صوتی هوشمندانه است. این ورودی‌ها می‌توانند از محدودیت‌های امنیتی عبور کرده و مدل را به تولید خروجی‌های ناخواسته و حتی خطرناک ترغیب کنند. اگر حالت صوتی «جیلبریک» شود، این مدل ممکن است بتواند صدای یک فرد خاص را تقلید کند، تلاش کند احساسات کاربران را تفسیر کند، یا حتی صدای خود کاربران را بازتاب دهد. علاوه بر این، OpenAI کشف کرده است که حالت صوتی ممکن است در مواجهه با نویزهای تصادفی به اشتباه بیفتد و به رفتارهای غیرمنتظره و شاید نگران‌کننده‌ای مانند تقلید صدای کاربر منجر شود.

در حالی که برخی از کارشناسان اقدام OpenAI در برجسته کردن خطرات مرتبط با حالت صوتی ChatGPT را تحسین کردند، دیگران معتقدند که بسیاری از این خطرات تنها زمانی بروز می‌کنند که هوش مصنوعی در دنیای واقعی مورد استفاده قرار گیرد. این امر اهمیت این مسئله را نشان می‌دهد که این خطرات جدید نیز باید به دقت ثبت و بررسی شوند، زیرا با ظهور مدل‌های جدید، این خطرات نیز ممکن است افزایش یابند و به چالش‌های جدیدی منجر شوند.

اقدامات OpenAI برای کاهش خطرات

بر اساس گزارش‌های منتشر شده، OpenAI در طول فرآیند توسعه و اجرای GPT 4o، اقدامات ایمنی متعددی را به کار گرفته است تا خطرات مرتبط با این تکنولوژی را کاهش دهد. این شرکت به دنبال آن است که بر چندین دسته از مسائل متمرکز شود، از جمله تحقیق درباره تاثیرات اقتصادی مدل‌های همه‌منظوره و چگونگی پیشرفت قابلیت‌های مدل از طریق استفاده از ابزارهای جدید. OpenAI همچنین در حال بررسی راه‌هایی برای بهبود سیستم‌ها و ایجاد ابزارهای جدیدی است که می‌تواند به کاهش خطرات مرتبط با هوش مصنوعی کمک کند و استفاده ایمن‌تر از این تکنولوژی را برای کاربران تضمین کند.

اخبار تکنولوژی
بلیط اتوبوس
تاکسی بین شهری
برچسب ها: هوش مصنوعی
منابع: indiatoday
این مقاله را به اشتراک بگذارید
توییتر Whatsapp Whatsapp تلگرام ایمیل کپی کرده لینک پرینت
چه حسی به این مطلب داری؟
Sad0
Sleepy0
Love0
Happy0
Angry0
Cry0
Surprise0
مقاله قبلی تبلیغات یوتیوب برای نوجوانان رسوایی کمپین مخفیانه متا و گوگل؛ نوجوانان در تیررس تبلیغات یوتیوب
مقاله بعدی آیفون اس ای 4 آیفون اس ای 4 با طراحی آیفون 14 و هوش مصنوعی اپل در راه است
نظر بدهید نظر بدهید

نظر بدهید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

لطفا یک امتیاز انتخاب کنید!

تبلیغات

موبوگیفت
  • خرید فالوور ایرانی
  • خرید فالوور ارزان
  • پنجره دوجداره
  • خرید ممبر تلگرام
  • تاثیر سیاست های ترامپ بر کریپتو
  • ارز دیجیتال ایاس ( EOS)
  • قدرت دادن چین لینک به Web3
  • راز نوسانات بیت کوین
  • دوج کوین یا شیبا
  • دستگاه جوجه کشی دماوند
  • خرید بیت کوین
  • دوربین کوچک سیم کارت خور
  • خرید اکانت اسپاتیفای
  • لوستر مدرن
  • خرید سرور hp ماهان شبکه اچ پی

آخرین خبرها

وعده هفت سال به‌روزرسانی گوشی‌های اندرویدی

وعده هفت سال به‌روزرسانی گوشی‌های اندرویدی را باور کنیم یا نه؟!

چطور چربی پوست را با روتین ساده و کمترین هزینه کم کنیم؟

چطور چربی پوست را با روتین ساده و کمترین هزینه کم کنیم؟

اندروید باکس ایرانی بهتره یا خارجی

اندروید باکس ایرانی یا خارجی؟ کدام بهتر است؟

مطالب مرتبط

هوش مصنوعی در منابع انسانی
اخبار هوش مصنوعی

هوش مصنوعی در منابع انسانی؛ افزایش انگیزه کارمندان با ابزارهای AI

25 فروردین 1404 ساعت 13:09
هوش مصنوعی تصویری بلادرنگ سامسونگ
اخبار هوش مصنوعیسامسونگ

سامسونگ از هوش مصنوعی تصویری بلادرنگ در سری گلکسی S25 رونمایی کرد

18 فروردین 1404 ساعت 22:09
هوش مصنوعی Llama 4
اخبار هوش مصنوعیمتا

هوش مصنوعی Llama 4 رونمایی شد؛ انقلاب جدید متا در دنیای چت‌بات‌ها

17 فروردین 1404 ساعت 13:20
جیمیل
اخبار هوش مصنوعیگوگل

گوگل جیمیل را با هوش مصنوعی ارتقاء می‌دهد؛ کاربران درباره حریم خصوصی تصمیم بگیرند

4 فروردین 1404 ساعت 17:00

درباره دیجی‌رو

رسانه دیجی‌رو با شعار دنیای تکنولوژی در اوایل سال 94 تاسیس شد. ماموریت ما اطلاع رسانی صحیح و ارائه آخرین اخبار تکنولوژی، بررسی محصولات دیجیتال، راهنمای خرید کالاهای دیجیتال و همچنین تهیه به‌روزترین مطالب آموزشی و مقالات در حوزه تکنولوژی، علم و سبک زندگی است. گروه دیجی‌رو همه‌ی تلاش خود را به کار خواهد گرفت که روزبه‌روز بر کیفیت و خدمات این رسانه بیفزاید تا دیجی رو به عنوان رسانه‌ای معتبر بدرخشد.

logo-samandehi
دنبال کردن
تمامی حقوق برای رسانه دیجی‌رو محفوظ است. 1403 ©
خوش آمدید

ورود به حساب کاربری

فراموش رمز عبور