موج جدیدی از نگرانیها پیرامون حریم خصوصی جیمیل در شبکههای اجتماعی به راه افتاده است. این جنجال پس از آن آغاز شد که پستهای وایرال شدهای ادعا کردند گوگل مخفیانه در حال استخراج دادههای کاربران از سرویس جیمیل برای آموزش مدلهای هوش مصنوعی خود است. زنگ خطر اصلی با انتشار مقالهای در بلاگ «ملوربایتس» (Malwarebytes) به صدا درآمد که مدعی بود گوگل سیاستهای حریم خصوصی خود را تغییر داده تا بتواند از محتوای ایمیلها و فایلهای ضمیمه کاربران برای آموزش مدل هوش مصنوعی «جمنای» (Gemini) استفاده کند.
پاسخ گوگل: این ادعاها گمراه کننده است
گوگل به سرعت این ادعاها را رد کرده و آنها را کاملاً اشتباه خوانده است. «جنی تامسون» (Jenny Thomson)، سخنگوی گوگل، در مصاحبه با وبسایت The Verge اعلام کرد:
این گزارشها گمراه کننده هستند. ما تنظیمات هیچکس را تغییر ندادهایم. ویژگیهای هوشمند جیمیل سالهاست که وجود دارند و ما از محتوای جیمیل شما برای آموزش مدل هوش مصنوعی جمنای استفاده نمیکنیم.
با این حال، این پاسخ نتوانست جلوی گسترش نگرانیها را بگیرد. کاربران با به اشتراک گذاشتن اسکرینشاتهایی نشان دادند که «ویژگیهای هوشمند» (Smart Features)، مانند متن پیشبینی کننده و یکپارچهسازی با تقویم، به صورت پیشفرض برایشان فعال است. برخی حتی گزارش دادند که این ویژگیها پس از غیرفعال کردن، دوباره خودبهخود فعال شدهاند که این موضوع به شایعات بیشتر دامن زده است.
ریشه سردرگمی: تفاوت شخصیسازی و آموزش هوش مصنوعی
این سردرگمی از نحوه عملکرد واقعی ویژگیهای هوشمند جیمیل نشأت میگیرد. ابزارهایی مانند «نوشتن هوشمند» (Smart Compose)، ردیابی پرواز و دستهبندی خودکار ایمیلها، برای شخصیسازی تجربه کاربری شما به تحلیل دادههای موجود در حساب شخصیتان متکی هستند و نه برای آموزش مدلهای هوش مصنوعی جهانی.
فعال کردن این گزینهها به این معناست که گوگل از محتوای جیمیل و «ورکاسپیس» (Workspace) شما برای بهبود تجربه کاربریتان در سایر اپلیکیشنهای خود استفاده میکند. اما به گفته گوگل، این فرآیند کاملاً از روند آموزش جمنای مجزاست. در واقع، شخصیسازی برای یک کاربر خاص با آموزش یک مدل هوش مصنوعی برای استفاده عمومی دو مقوله کاملاً متفاوت هستند.
آینده حریم خصوصی جیمیل و اعتماد عمومی
این جنجال در زمان حساسی برای گوگل رخ داده است، زیرا این شرکت در حال تبلیغ «جمنای 3» (Gemini 3)، قدرتمندترین مدل هوش مصنوعی خود تا به امروز، است. همزمان با افزایش نفوذ این ابزارها در خدمات روزمره، اعتماد عمومی شکنندهتر از همیشه به نظر میرسد. در همین راستا، یک دادخواست گروهی در اوایل ماه جاری میلادی علیه گوگل تنظیم شده که این شرکت را به عبور از خطوط قرمز و دادن دسترسی به جمنای برای تحلیل محتوای جیمیل (Gmail)، چت (Chat) و میت (Meet) متهم میکند؛ اتهامی که گوگل آن را قویاً رد کرده است.
در واکنش به این نگرانیها، گوگل در یک پست وبلاگی در تاریخ 23 مه 2024 (3 خرداد 1403) تأکید کرد که از دادههای کاربران در Workspace (شامل جیمیل) برای آموزش مدلهای هوش مصنوعی عمومی خود استفاده نمیکند، مگر اینکه کاربر به طور مشخص و مستقیم با یک قابلیت هوش مصنوعی در آن سرویس تعامل کند (مثلاً از جمنای بخواهد ایمیلی را خلاصه کند) که در این صورت نیز دادهها با رعایت حریم خصوصی و به صورت ناشناسسازی شده به کار میروند. این شفافسازی نشان میدهد که حفظ حریم خصوصی جیمیل به یکی از بزرگترین دغدغههای کاربران و چالشهای گوگل تبدیل شده است.
