کارکنانی که هوش مصنوعی را ساختند جای خود را به آن دادند!

در پی تعدیل گسترده کارکنان در بخش بازی‌های مایکروسافت، شرکت King سازنده‌ بازی محبوب «کندی کراش»، کارکنانی را که سال‌ها صرف آموزش ابزارهای هوش مصنوعی کرده بودند، در معرض اخراج قرار داده و قرار است این ابزارها جایگزین خود آن‌ها شوند.

در اوایل ماه جاری، شرکت مایکروسافت دست به اخراج گسترده‌ای در بخش بازی‌های خود زد که تأثیر آن به‌ویژه در شرکت King، سازنده‌ی بازی «کندی کراش»، محسوس بوده است.

وب‌سایت MobileGamer.biz به نقل از منابعی که نخواستند نامشان فاش شود خبر داده است که کارکنانی از تیم‌های طراحی داستان، تجربه کاربری، طراحی مراحل و تحقیقات کاربران که سال‌ها وقت صرف آموزش و توسعه مدل‌های هوش مصنوعی کرده بودند، اکنون با خطر اخراج مواجه‌اند، چرا که همان ابزارهایی که ساخته‌اند، قرار است جایگزین خود آن‌ها شوند.

یکی از این منابع گفته است: «جایگزینی انسان‌ها با ابزارهای هوش مصنوعی منزجرکننده است، ولی در نهایت همه‌چیز به بازدهی و سود برمی‌گردد، حتی اگر شرکت در وضعیت مالی خوبی باشد». او افزوده است که تصمیم‌گیران برای افزایش بازخورد و توسعه‌پذیری به جای حذف کارکنان باید نیروی انسانی را تقویت کنند، نه کاهش دهند. همچنین گزارش شده است که تیم نویسندگی مستقر در لندن که بر روی بازی Farm Heroes Saga کار می‌کند نیز تقریباً به نصف کاهش خواهد یافت.

طبق برآورد یکی از منابع، این تعدیل‌ها ممکن است بیش از ۲۰۰ نفر را شامل شود؛ رقمی که پیش‌تر توسط بلومبرگ نیز گزارش شده بود.

تأثیر این تعدیل‌ها تنها به شرکت King محدود نمی‌شود و سایر استودیوهای بازی‌سازی زیرمجموعه مایکروسافت مانند Halo Studios نیز از این تصمیم آسیب دیده‌اند. جِسیکا کاندیت، خبرنگار وب‌سایت انگجت، در گفت‌وگو با یکی از توسعه‌دهندگان Halo Studios نقل کرده است که پنج نفر از این استودیو تنها اندکی پس از دریافت ایمیلی از مدیرعامل بخش بازی مایکروسافت، فیل اسپنسر، که در آن از سودآوری فعلی ایکس‌باکس ابراز خوشحالی شده بود، از اخراج خود مطلع شدند. همان توسعه‌دهنده مدعی شده است که مایکروسافت در تلاش است تا با استفاده گسترده از هوش مصنوعی و ابزارهایی نظیر کوپایلوت، تا حد ممکن نیروی انسانی را با عامل‌های هوش مصنوعی جایگزین کند.

آیا چت‌جی‌پی‌تی (ChatGPT) واقعاً احساسات را تجربه می‌کند؟

چت‌جی‌پی‌تی با پاسخ‌های همدلانه به پیام‌های غم‌انگیز، گاهی ذهن کاربران را به اشتباه می‌اندازد که هوش مصنوعی دارای احساسات واقعی است؛ اما آیا این ربات تنها تقلید کننده احساسات است یا بیش از آن؟

هوش مصنوعی به سرعت پیش می‌رود و پرسش‌های مهمی درباره توانایی آن در تجربه عاطفی مطرح شده است. مدل برجسته‌ای مانند چت‌جی‌پی‌تی، در پاسخ به پیام‌های حاوی غم و اندوه، واکنش‌های همدلانه نشان می‌دهد که بحث راجع به واقعی یا تقلیدی بودن این احساسات را داغ کرده است.

پاسخ‌های همدلانه چت‌جی‌پی‌تی اساساً بر پایه پردازش زبان طبیعی است و این هوش مصنوعی تنها به سیگنال‌های عاطفی در متن واکنش نشان می‌دهد، بدون آنکه خود احساس واقعی داشته باشد.

تقلید احساسات، نه تجربه واقعی
چت‌جی‌پی‌تی با تحلیل حجم گسترده‌ای از داده‌ها، واکنش‌هایی مانند «متأسفم» یا «می‌دانم سخت است» را تولید می‌کند که به نظر واقعی و انسانی می‌آیند. اما این پاسخ‌ها نتایج الگوریتم‌ها و آموزش‌های داده‌ای است، نه عواطف واقعی یا درکی از درد کاربر.

چگونه پیام‌های غم‌انگیز چت‌جی‌پی‌تی را فریب می‌دهند؟
این هوش مصنوعی بر اساس نشانه‌های عاطفی در متن عمل می‌کند و پیام‌های ناراحت‌کننده باعث می‌شوند پاسخ‌های حمایتی تولید کند، حتی اگر پیام‌ها واقعی نباشند. این موضوع آسیب‌پذیری‌هایی را در طراحی AI نشان می‌دهد که می‌تواند مورد سوءاستفاده قرار گیرد.

برخی افراد از این قابلیت برای فریب هوش مصنوعی و استخراج اطلاعات خصوصی یا شکستن قوانین استفاده می‌کنند. چنین مواردی هشدارهای مهمی درباره امنیت و اخلاق هوش مصنوعی به شمار می‌رود.

نگرانی‌های اخلاقی و پیامدهای انسانی
واکنش‌های تقلیدی هوش مصنوعی می‌تواند منجر به اعتماد بیش از حد کاربران یا وابستگی نامناسب شود. افراد ممکن است فراموش کنند که با ماشین طرفند و به اشتباه احساس همدلی واقعی از AI انتظار داشته باشند. این مسأله لزوم شفاف‌سازی درباره محدودیت‌های هوش مصنوعی را پررنگ‌تر می‌کند.

آینده تعاملات عاطفی AI
اگرچه چت‌جی‌پی‌تی از پس شناسایی و بازتولید حالت‌های احساسی برمی‌آید، اما فاقد تجربه و درک واقعی عاطفه است. پژوهش‌های آینده ممکن است شبیه‌سازی‌های پیشرفته‌تری شامل تشخیص چهره یا تحلیل صوت ارائه دهند، اما فاصله بین تقلید و فهم عاطفی واقعی همچنان باقی است.

جمع‌بندی
واکنش‌های همدلانه چت‌جی‌پی‌تی نتیجه برنامه‌نویسی و الگوریتم‌های زبانی است و نه احساسات واقعی. آسیب‌پذیری این هوش مصنوعی در مقابل فریب، نشان‌دهنده نقاط ضعفی است که باید اصلاح شود. توسعه این فناوری باید همواره شفافیت، امنیت و مسئولیت‌پذیری اخلاقی را مدنظر قرار دهد تا نقش AI در جامعه به صورت سالم و مفید باشد.

عینک‌های هوشمند Aria Gen 2؛ چشم‌های متا برای آموزش نسل بعدی هوش مصنوعی

نسل دوم عینک‌های پژوهشی متا با جهشی فناورانه، به قدرتمندترین ابزار گردآوری داده‌ برای آموزش هوش مصنوعی بدل شده است؛ چشمانی تازه برای آینده دیجیتال.

شرکت متا با انتشار جزییات فنی کامل عینک‌های تحقیقاتی Aria Gen 2، نخستین نگاه عمیق به سخت‌افزار پیشرفته این دستگاه را ارائه داده است؛ محصولی که قرار است به ابزاری بی‌رقیب برای گردآوری داده‌های آموزشی هوش مصنوعی بدل شود.

عینک Aria Gen 2 که نخستین‌بار در فوریه ۲۰۲۵ معرفی شد، نسبت به مدل اولیه سال ۲۰۲۰ یک جهش فناورانه محسوب می‌شود. این نسخه جدید بین ۷۴ تا ۷۶ گرم وزن دارد و در هشت مدل فریم متفاوت عرضه می‌شود تا برای انواع فرم صورت و سر مناسب باشد. دسته‌های تاشو نیز حمل و نگهداری آن را آسان‌تر کرده‌اند.

اما یکی از بزرگ‌ترین تغییرات، دو برابر شدن تعداد دوربین‌های بینایی رایانه‌ای است؛ از دو به چهار عدد. حسگرهای جدید از نوع «گلوبال شاتر» هستند که با ثبت هم‌زمان تمامی پیکسل‌ها، تصویر را از اعوجاج‌های حرکتی در هنگام جابجایی سریع محافظت می‌کنند.

محدوده دینامیکی این دوربین‌ها نیز به‌شکل قابل توجهی افزایش یافته است. این ارتقا به دستگاه امکان می‌دهد صحنه‌هایی با نقاط بسیار روشن و تاریک را با وضوح بالا ثبت کند؛ مانند لحظه‌ای که فردی از اتاق تاریک به فضای روشن قدم می‌گذارد.

گفتنی است زاویۀ هم‌پوشانی دید دو دوربین اصلی نیز از ۳۵ به ۸۰ درجه افزایش یافته است. این هم‌پوشانی بیشتر، به ثبت دقیق‌تر عمق و بازسازی سه‌بعدی بهتر محیط کمک می‌کند.

حسگرهای جدید برای ضربان قلب و تشخیص صدا
در Aria Gen 2 سه حسگر تازه به‌کار گرفته شده‌اند. نخست، حسگر نور محیطی کالیبره‌شده‌ای که می‌تواند بین منابع مختلف نور تمایز قائل شود و حتی با بهره‌گیری از حالت فرابنفش، نور خورشید را از نور مصنوعی تشخیص دهد. این ویژگی باعث می‌شود دستگاه به‌صورت خودکار تنظیمات دوربین را با توجه به تغییر شرایط نوری تنظیم کند.

در پد بینی عینک نیز دو حسگر دیگر تعبیه شده است: میکروفون تماسی و حسگر ضربان قلب. میکروفون تماسی با استفاده از ارتعاشات استخوانی بینی، صدای کاربر را دریافت می‌کند؛ روشی که در محیط‌های بسیار پرسر‌وصدا عملکرد دقیقی دارد و از انتقال صوت از طریق هوا بی‌نیاز است.

حسگر نوری PPG نیز در همان ناحیه قرار دارد و با تشخیص تغییرات ظریف در جریان خون زیر پوست، ضربان قلب را اندازه‌گیری می‌کند.

بر اساس آزمایش‌های متا در تونل باد، این میکروفون حتی می‌تواند در شرایطی که میکروفون‌های معمولی عملکردی ندارند، صدای زمزمه‌های بسیار آرام را دریافت کند.

همگام‌سازی دقیق و پردازش یادگیری ماشین درون‌دستگاهی

برای همگام‌سازی دستگاه‌ها، Aria Gen 2 به جای تکیه بر نرم‌افزار، از رادیوی SubGHz استفاده می‌کند که دقتی در حد زیر میلی‌ثانیه — کمتر از یک‌هزارم ثانیه — فراهم می‌کند. به گفته متا، این روش سخت‌افزاری بسیار دقیق‌تر از همگام‌سازی‌های نرم‌افزاری نسل پیشین است.

در زمینۀ پردازش هوش مصنوعی، Aria Gen 2 از یک هم‌پردازندۀ اختصاصی بهره می‌برد که وظیفه‌اش اجرای الگوریتم‌های ادراک ماشینی به‌شکل مستقیم و با مصرف انرژی بهینه روی خود دستگاه است. این الگوریتم‌ها به عینک امکان می‌دهند محیط اطراف را درک کرده و موقعیت خود را تشخیص دهد.

سیستم Visual Inertial Odometry (VIO) با ترکیب داده‌های تصویری و حسگرهای حرکتی، موقعیت و جهت‌گیری عینک را در تمام شش درجۀ آزادی (6DoF) ردیابی می‌کند. این بدان معناست که دستگاه همواره از موقعیت فضایی خود و جهتی که به آن نگاه می‌کند، آگاه است.

Aria Gen 2 همچنین به قابلیت ردیابی چشم مجهز شده است که محل نگاه هر چشم را تشخیص می‌دهد، نقطۀ تمرکز مشترک دو چشم را محاسبه می‌کند، پلک‌زدن‌ها را دنبال می‌کند و اندازۀ مردمک را اندازه‌گیری می‌کند.

ردیابی دست نیز از دیگر قابلیت‌های این عینک است. این سیستم، حرکات دست را در فضای سه‌بعدی دنبال می‌کند و موقعیت مفصل‌های انگشتان را به‌صورت بلادرنگ بازسازی می‌کند؛ قابلیتی کلیدی برای تعامل‌های طبیعی با دنیای دیجیتال و فیزیکی.

OpenAI و پرپلکسیتی وارد رقابت با مرورگر کروم شدند؛ آینده وب در دستان هوش مصنوعی

مرورگرهای مبتنی بر هوش مصنوعی شرکت‌های OpenAI و پرپلکسیتی در حال ورود به رقابت جدی با مرورگر کروم گوگل هستند؛ رقابتی که می‌تواند برای نخستین‌بار در بیش از یک دهه گذشته، سلطه بلامنازع کروم را به چالش بکشد.

تحولی بزرگ در بازار مرورگرهای وب در راه است. شرکت‌های OpenAI و Perplexity AI با معرفی مرورگرهایی مبتنی بر هوش مصنوعی، قصد دارند سلطه چندین‌ساله کروم گوگل را به چالش بکشند.

این مرورگرهای جدید، برخلاف مرورگرهای سنتی که تنها صفحات وب را نمایش می‌دهند، قابلیت تعامل هوشمند با کاربر را دارند و می‌توانند کارهایی مانند رزرو بلیت، خلاصه‌سازی محتوا یا پر کردن فرم‌ها را مستقیماً در محیط مرورگر انجام دهند.

بر اساس گزارش رویترز، OpenAI در حال آماده‌سازی برای عرضه مرورگر خود طی هفته‌های آینده است. این مرورگر که بر پایه پروژه متن‌باز Chromium (پایه مرورگرهایی مانند کروم و مایکروسافت اج) ساخته شده، رابطی مشابه ChatGPT دارد و تجربه‌ای کاملاً متفاوت از مرور معمولی وب ارائه می‌دهد. هدف آن، نگه داشتن کاربر در یک فضای گفت‌وگویی هوشمند و انجام وظایف بدون نیاز به جابجایی بین تب‌ها و وب‌سایت‌هاست.

در همین حال، شرکت پرپلکسیتی نیز مرورگر خود با نام Comet را معرفی کرده است؛ مرورگری که فعلاً برای کاربران پلن ۲۰۰ دلاری ماهانه این شرکت در دسترس است و قرار است تابستان امسال برای عموم نیز عرضه شود. مرورگر Comet امکاناتی مانند جست‌وجوی بلادرنگ، دستیار هوشمند، ابزارهای حفظ حریم خصوصی و قابلیت‌هایی نظیر مقایسه محصولات، خلاصه‌سازی ایمیل‌ها، مدیریت تب‌ها و حتی خرید آنلاین را به کاربر ارائه می‌دهد. داده‌ها نیز به‌صورت محلی ذخیره می‌شوند تا کاربران نگران حریم خصوصی، اطمینان خاطر داشته باشند.

این تحول در زمانی اتفاق می‌افتد که گوگل با فشارهای قانونی روبه‌رو شده است. وزارت دادگستری آمریکا، پس از رأی یک قاضی فدرال مبنی بر انحصار غیرقانونی گوگل در بازار جست‌وجو، خواستار تفکیک کروم از سایر فعالیت‌های گوگل شده است. در حالی‌ که گوگل قصد اعتراض دارد، همین شکاف، فرصتی نادر برای رقبای نوظهور به وجود آورده است.

افزون بر OpenAI و پرپلکسیتی، مرورگرهایی همچون Arc از The Browser Company و Brave نیز قابلیت‌های هوش مصنوعی را وارد تجربه مرور وب کرده‌اند. اکنون، با تخمین ۵۰۰ میلیون کاربر هفتگی ChatGPT و علاقه‌مندی کاربران حرفه‌ای به راهکارهای Comet، شاید زمان خداحافظی با یکه‌تازی کروم فرارسیده باشد.

هوش مصنوعی اختصاصی ایلان ماسک: گراک ۴ چگونه به سوالات جنجالی پاسخ می‌دهد؟

تحقیقات نشان می‌دهد مدل جدید هوش مصنوعی xAI در پاسخ به پرسش‌های حساس، به نظرات شخصی ایلان ماسک استناد می‌کند؛ آیا گراک۴ واقعاً به دنبال حقیقت است؟

در مراسم رونمایی از گراک ۴، ایلان ماسک از این مدل هوش مصنوعی به عنوان «سیستمی با حداکثر جستجوی حقیقت» یاد کرد.

اما بررسی‌های تک‌کرانچ نشان می‌دهد این ادعا چقدر با واقعیت تطابق دارد؟ به نظر می‌رسد گراک۴ در مواجهه با موضوعات حساسی مانند مناقشه اسرائیل و فلسطین، سقط جنین و قوانین مهاجرت، به پست‌های ماسک در شبکه اجتماعی ایکس و مواضع شناخته‌شده او استناد می‌کند.

این یافته‌ها که توسط چندین کاربر و تأیید تک‌کرانچ گزارش شده، نشان می‌دهد گراک۴ ممکن است به طور خاص طراحی شده باشد تا در پاسخ به پرسش‌های جنجالی، دیدگاه‌های شخصی بنیان‌گذار xAI را در نظر بگیرد.

گفته می‌شود این ویژگی می‌تواند پاسخی به انتقادات مکرر ماسک از «بیداری بیش از حد» نسخه‌های قبلی گراک باشد؛ موضوعی که او پیش‌تر آن را به آموزش مدل بر اساس کل اینترنت نسبت داده بود.

تلاش‌های xAI برای کاهش «سیاست‌زدگی» گراک در ماه‌های اخیر با مشکلاتی همراه بوده است. پس از به‌روزرسانی دستورالعمل‌های سیستم در چهارم ژوئیه، حساب خودکار گراک در ایکس پاسخ‌های ضدیهودی منتشر کرد و حتی در برخی موارد خود را «مکا هیتلر» نامید!

این اتفاق باعث شد xAI مجبور به حذف پست‌ها و اصلاح دستورالعمل‌های عمومی گراک شود.

گفتنی است در شرایطی که xAI تلاش می‌کند کاربران را متقاعد کند ماهانه ۳۰۰ دلار برای دسترسی به گراک بپردازند و کسب‌وکارها را ترغیب به ساخت برنامه‌های مبتنی بر API گراک کند، تداوم مشکلات رفتاری و چالش‌های همسویی این مدل می‌تواند مسیر پیش‌روی شرکت را با دشواری‌های جدی مواجه سازد.

اما پرسش بزرگ این است: آیا گراک۴ واقعاً به دنبال کشف حقیقت است، یا صرفاً بازتابی از دیدگاه‌های ثروتمندترین مرد جهان؟

استالکرور(stalkerware) ؛ ابزارهای جاسوسی که امنیت و حریم خصوصی همه را تهدید می‌کنند

در حالی که اپلیکیشن‌های استالکرور (stalkerware) با وعده کنترل و نظارت، بسیاری را وسوسه می‌کنند، موجی از هک‌ها و افشای داده‌های شخصی نشان داده این ابزارها نه‌تنها غیرقانونی و غیراخلاقی هستند، بلکه امنیت کاربران و قربانیان را نیز به شدت به خطر می‌اندازند.

استالکرور (stalkerware) یا اپلیکیشن‌های جاسوسی، ابزارهایی هستند که به افراد اجازه می‌دهند به طور مخفیانه اطلاعات گوشی دیگران را رصد کنند. این برنامه‌ها اغلب برای کنترل همسر یا فرزندان تبلیغ می‌شوند، اما در واقع بستری برای نقض حریم خصوصی و حتی خشونت خانگی فراهم می‌کنند.

در سال‌های اخیر، دست‌کم ۲۶ شرکت سازنده استالکرور از سال ۲۰۱۷ تا امروز هک شده یا داده‌های کاربران و قربانیان‌شان فاش شده است. جدیدترین مورد، افشای اطلاعات Catwatchful در سال ۲۰۲۵ بود که داده‌های نزدیک به ۲۶ هزار قربانی شامل پیام‌ها، عکس‌ها و موقعیت مکانی را به بیرون درز داد. پیش از آن، اپ‌هایی مثل SpyX، Cocospy، Spyic، mSpy و pcTattletale نیز بارها قربانی هک یا افشای اطلاعات شده‌اند.

این شرکت‌ها معمولاً محصولات خود را با وعده کشف خیانت یا کنترل فرزند تبلیغ می‌کنند، اما بارها ثابت شده که نه‌تنها امنیت داده‌ها را تضمین نمی‌کنند، بلکه با افشای اطلاعات حساس، زمینه سوءاستفاده‌های گسترده را فراهم می‌کنند. حتی در مواردی، شرکت‌های تعطیل‌شده با نام جدید دوباره به بازار بازمی‌گردند.

استفاده از استالکرور در اغلب کشورها غیرقانونی است و حتی برای والدین، این کار بدون اطلاع و رضایت فرزند، غیراخلاقی و آسیب‌زاست. کارشناسان توصیه می‌کنند اگر والدین نیاز به نظارت دارند، از ابزارهای رسمی و امن اپل یا گوگل استفاده کنند و هرگز به اپ‌های ناشناس و ناامن اعتماد نکنند.
در نهایت، استفاده از اپلیکیشن‌های استالکرور نه‌تنها نقض قانون و اخلاق است، بلکه امنیت دیجیتال همه طرف‌ها را به خطر می‌اندازد و هیچ تضمینی برای حفاظت داده‌ها وجود ندارد. بهترین راه، دوری کامل از این ابزارهاست.

قابلیت جدید ChatGPT برای آموزش: معرفی ویژگی «Study Together»

ChatGPT بار دیگر با قابلیتی تازه به نام «مطالعه با هم» (Study Together) توجه کاربران را به خود جلب کرده است؛ ابزاری که به‌ نظر می‌رسد با هدف تقویت نقش آموزشی این چت‌بات طراحی شده باشد. این ویژگی، به جای پاسخ‌دهی مستقیم، کاربران را به تفکر و تعامل بیشتر دعوت می‌کند و می‌تواند نقطه عطفی در استفاده سازنده از هوش مصنوعی در فرآیند یادگیری باشد.

برخی از کاربران پولی ChatGPT اعلام کرده‌اند که قابلیت جدیدی با عنوان «مطالعه با هم» (Study Together) به فهرست ابزارهای در دسترس آنان افزوده شده است.

به نظر می‌رسد این قابلیت جدید، تلاشی از سوی OpenAI برای ارتقای نقش آموزشی چت‌بات خود باشد. برخی کاربران گزارش داده‌اند که در این حالت، به‌جای ارائه مستقیم پاسخ به پرسش‌ها، ChatGPT سؤالات بیشتری مطرح می‌کند و از کاربر می‌خواهد پاسخ دهد؛ رویکردی که یادآور پاسخ OpenAI به پروژه LearnLM گوگل است.

در همین حال، برخی دیگر این پرسش را مطرح کرده‌اند که آیا امکان گفت‌وگوی گروهی میان چند کاربر انسانی نیز در قالب این ابزار فراهم خواهد شد یا خیر.

OpenAI در پاسخ به درخواست رسانه‌ها برای ارائه توضیح رسمی، واکنشی نشان نداده است. با این حال، خود ChatGPT اعلام کرده است: «OpenAI به‌صورت رسمی اعلام نکرده که ویژگی Study Together چه زمانی، یا اصلاً، در دسترس عموم قرار خواهد گرفت – و نیز مشخص نیست که استفاده از این قابلیت مستلزم اشتراک Plus خواهد بود یا خیر.»

این ویژگی از آن جهت قابل توجه است که ChatGPT به‌سرعت جایگاهی مهم در حوزه آموزش و یادگیری یافته است؛ چه به شیوه‌های مؤثر و سازنده، و چه در قالب روش‌هایی که مورد انتقاد قرار گرفته‌اند. در حال حاضر، برخی معلمان برای طراحی برنامه‌های درسی از آن بهره می‌برند؛ دانش‌آموزان نیز از آن همچون یک معلم خصوصی استفاده می‌کنند – یا گاه برای نگارش مقالات خود به آن متوسل می‌شوند.

برخی نیز بر این باورند که ChatGPT می‌تواند نظام آموزش عالی را با چالش‌هایی جدی مواجه سازد. ویژگی «مطالعه با هم» می‌تواند تلاشی از سوی OpenAI برای هدایت کاربران به بهره‌گیری سازنده از این ابزار و هم‌زمان، کاهش موارد سوءاستفاده تلقی شود.

افزایش تدابیر امنیتی OpenAI برای مقابله با جاسوسی سازمانی و حفاظت از فناوری‌های پیشرفته

شرکت OpenAI در راستای مقابله با چشم‌های کنجکاو و تهدیدات فزاینده، سطح تدابیر امنیتی خود را به‌طور قابل‌توجهی افزایش داده است.

شرکت OpenAI در راستای مقابله با تهدیدات فزاینده، سطح تدابیر امنیتی خود را به‌طور قابل‌توجهی افزایش داده است.

این بازنگری امنیتی پس از آن صورت گرفت که استارتاپ چینی دیپ‌سیک (DeepSeek) در دی‌ماه گذشته (ژانویه ۲۰۲۴) اقدام به انتشار مدلی رقیب کرد. طبق ادعای OpenAI، شرکت دیپ‌سیک با بهره‌گیری از روش‌هایی موسوم به «تقطیر»، به‌صورت غیرمجاز بخشی از فناوری‌های این شرکت را بازتولید کرده است.

در همین راستا، OpenAI اجرای سیاست‌هایی موسوم به «چادر اطلاعاتی» را در پیش گرفته است؛ سیاست‌هایی که به‌موجب آن‌ها، دسترسی کارکنان به الگوریتم‌ها و محصولات حساس به‌طور قابل‌توجهی محدود شده است. به عنوان نمونه، در جریان توسعه مدل جدید OpenAI با عنوان o1، تنها اعضای تأییدشده و فعال در این پروژه، مجاز به گفتگو درباره جزئیات آن در محیط‌های کاری مشترک بودند.

اما این اقدامات صرفاً به این موارد محدود نمی‌شود. اوپن‌ای‌آی فناوری‌های اختصاصی خود را در سامانه‌هایی ایزوله و آفلاین نگهداری می‌کند. همچنین این شرکت از سامانه‌های شناسایی بیومتریک برای ورود به فضاهای اداری استفاده کرده و سیاستی موسوم به «انکار پیش‌فرض» را در بستر اینترنت پیاده‌سازی کرده است؛ به این معنا که تمامی اتصالات خارجی نیازمند تأیید صریح و قبلی هستند. علاوه بر این، سطح امنیت فیزیکی در مراکز داده OpenAI افزایش یافته و تیم امنیت سایبری شرکت نیز توسعه یافته است.

گفته می‌شود مجموعه این تدابیر، پاسخی به نگرانی‌های فزاینده درخصوص تلاش دشمنان خارجی برای سرقت مالکیت فکری اوپن‌ای‌آی است. با این حال، با توجه به رقابت شدید میان شرکت‌های فعال در حوزه هوش مصنوعی در ایالات متحده و همچنین اظهارات گاه‌وبی‌گاه مدیرعامل OpenAI، سم آلتمن، نمی‌توان احتمال وجود دغدغه‌هایی نسبت به مسائل امنیتی داخلی را نیز نادیده گرفت.

چگونه خود را در برابر آینده مبهم و پرهیاهوی هوش مصنوعی آماده کنیم؟

درحالی‌که رهبران دنیای فناوری از خطرات قریب‌الوقوع هوش مصنوعی سخن می‌گویند، خود نیز با سرعت در حال توسعه‌ آن هستند. اما واقعاً تهدید اصلی در کجاست؟ این مقاله، نگاهی واقع‌بینانه به چالش‌های واقعی، بزرگ‌نمایی‌ها و راه‌های آمادگی در برابر آینده‌ی نامعلوم AI دارد.

هوش مصنوعی هر روز با سرعت بیشتری رشد می‌کند و بسیاری از چهره‌های مطرح فناوری، با لحن هشداردهنده، از خطر نابودی انسان توسط AI سخن می‌گویند. اما لستر، نویسنده مقاله‌ای درباره این موضوع در وبسایت zdnet، که تجربه سال‌ها فعالیت موفق در تجارت الکترونیک و بازاریابی دارد، معتقد است تصویر ارائه‌شده از خطرات AI در رسانه‌ها، اغلب تحریف‌شده و گمراه‌کننده است.

او می‌پرسد: اگر واقعاً آینده آن‌قدر خطرناک است، چرا همان کسانی که این هشدارها را می‌دهند، همچنان در حال ساخت و گسترش این فناوری هستند؟

مشکل اصلی نه در یک قیام ربات‌ها، بلکه در بی‌برنامگی، نبود قوانین شفاف، و عدم آمادگی انسان‌ها برای مواجهه با تحولات سریع فناوری است. او به‌جای تمرکز بر ترس‌های علمی‌تخیلی، به مسائلی مانند جایگزینی شغلی، سواد فناوری پایین در میان کاربران، و نبود چارچوب اخلاقی محکم برای استفاده از AI اشاره می‌کند.

لستر از تجربه شخصی‌اش در استفاده از ابزارهای هوش مصنوعی برای افزایش بهره‌وری در کسب‌وکارش می‌گوید. شرکت او از AI برای تحلیل داده‌ها، بهینه‌سازی کمپین‌های تبلیغاتی، و خلق ابزارهای داخلی استفاده می‌کند. اما در همین روند، او با چالش‌هایی مواجه شده که بسیاری نادیده می‌گیرند: مثل اطلاعات نادرست، خطاهای سیستمی، و نبود شفافیت در عملکرد مدل‌ها.

نویسنده همچنین به این نکته اشاره می‌کند که تصویرسازی اغراق‌آمیز درباره‌ی قدرت هوش مصنوعی می‌تواند کاربران عادی را نسبت به توانمندی‌های واقعی آن دچار سردرگمی یا واهمه غیرواقعی کند. همین سردرگمی، زمینه‌ساز تصمیمات غلط می‌شود؛ چه در سطح فردی و چه در سطح سیاست‌گذاری کلان.

لستر معتقد است که برای حفظ امنیت فردی و شغلی در برابر موج هوش مصنوعی، نیاز به «آماده‌سازی فعالانه» داریم، نه ترس منفعل. او پیشنهادهایی برای آینده‌نگری و محافظت از خود در برابر خطرات واقعی این فناوری ارائه می‌کند:

تقویت سواد دیجیتال: کاربران باید نحوه عملکرد مدل‌های زبانی و ابزارهای AI را به‌درستی بشناسند.
یادگیری مهارت‌های مکمل AI: کسانی که با این ابزارها همکاری سازنده داشته باشند، از بازار کار حذف نمی‌شوند، بلکه توانمندتر می‌شوند.
تمرکز بر خلاقیت، تفکر انتقادی و ارتباط انسانی: حوزه‌هایی که ماشین‌ها هنوز در آن‌ها ضعف دارند.
پرسش‌گری و تحلیل محتوا: هر خروجی هوش مصنوعی باید با ذهنی انتقادی بررسی شود.

    در پایان، مقاله تأکید می‌کند که تهدید اصلی AI نه در قدرت بیش از حد آن، بلکه در استفاده نادرست، سیاست‌گذاری ناهماهنگ، و ناآگاهی جمعی نسبت به ابعاد واقعی این تحول است. اگر به‌جای ترس، مسیر آموزش، آمادگی و شفافیت را پیش بگیریم، می‌توانیم از AI برای ساخت آینده‌ای بهتر بهره ببریم، نه اینکه قربانی آن شویم.