ایلان ماسک مدل هوش مصنوعی Grok 2.5 را متن‌باز کرد: دانلود رایگان برای همه

ایلان ماسک بار دیگر غافلگیری بزرگی را رقم زد! وی با انتشار عمومی کد کامل مدل هوش مصنوعی «گروک ۲.۵»، دروازه‌های آن را به روی همه پژوهشگران و توسعه‌دهندگان گشود تا عصر جدیدی از شفافیت و نوآوری در حوزه هوش مصنوعی آغاز شود.

ایلان ماسک، میلیاردر و کارآفرین سرشناس، از انتشار عمومی مدل هوش مصنوعی «گروک ۲.۵» (Grok 2.5) توسعه‌یافته توسط شرکت XAI خبر داد.

این اقدام، کد این مدل را به صورت متن‌باز در اختیار عموم قرار می‌دهد و امکان دسترسی، بررسی و توسعهٔ آن را — به‌ویژه برای پژوهشگران و توسعه‌دهندگان — فراهم می‌کند.

گروک ۲.۵ یک چت‌بات مبتنی بر هوش مصنوعی است که توسط XAI طراحی شده و عملکردی مشابه سامانه‌هایی مانند ChatGPT دارد. این مدل قادر است با پاسخگویی به پرسش‌ها، تولید متن و تحلیل داده‌ها با کاربران تعامل کند و عمدتاً در پلتفرم ایکس (X) مورد استفاده قرار می‌گیرد.

ماسک در پستی در پلتفرم ایکس تایید کرد که نسخهٔ پیشرفته‌تر این مدل با نام «گروک ۳» (Grok 3) نیز حدود شش ماه دیگر به صورت متن‌باز منتشر خواهد شد.

رشد چشمگیر استفاده از هوش مصنوعی در صنعت بازی‌سازی

هوش مصنوعی به سرعت از ابزاری آزمایشی به بخش جدایی‌ناپذیر تولید بازی‌های ویدئویی تبدیل شده است. بر اساس گزارش جدید گوگل کلاد و هریس پول، بیشتر استودیوها با هدف کاهش هزینه‌ها و سرعت‌بخشیدن به روند تولید، به کارگیری هوش مصنوعی را ضروری می‌دانند؛ هرچند نگرانی‌هایی در زمینه مالکیت داده، حقوق معنوی و جایگزینی نیروی انسانی همچنان پابرجاست.

گزارش مشترک گوگل کلاد و هریس پول (The Harris Poll) نشان می‌دهد که هوش مصنوعی اکنون به یکی از ارکان اصلی صنعت بازی‌های ویدئویی تبدیل شده است.

طبق این مطالعه که با مشارکت 615 توسعه‌دهنده در ایالات متحده، کره جنوبی، نروژ، فنلاند و سوئد انجام شد، حدود 87 درصد از توسعه‌دهندگان از هوش مصنوعی برای انجام وظایفی استفاده می‌کنند که پیش‌تر زمان و منابع زیادی را در فرایند تولید به خود اختصاص می‌داد.

کاربردهای هوش مصنوعی در این صنعت گسترده است و از بهینه‌سازی محتوا گرفته تا پردازش انبوه متن، کد، صدا و ویدئو را شامل می‌شود. حدود 44 درصد از پاسخ‌دهندگان گفته‌اند که این ابزارها امکان پردازش سریع و خودکار داده‌ها را فراهم می‌کنند و به تصمیم‌گیری‌های سریع‌تر در جریان تولید کمک می‌کنند. هدف اصلی از این بهره‌گیری، کوتاه‌کردن زمان توسعه بازی‌هاست؛ زیرا با افزایش پیچیدگی و سطح انتظارات بازیکنان، فرآیند تولید نیز طولانی‌تر و پرهزینه‌تر شده است.

بر اساس این نظرسنجی، 94 درصد از توسعه‌دهندگان باور دارند که استفاده از هوش مصنوعی در نهایت به کاهش هزینه‌های تولید منجر خواهد شد. این موضوع برای استودیوها اهمیت دارد زیرا هزینه ساخت بازی‌های پرهزینه و خدمات زنده روزبه‌روز بیشتر می‌شود. با این حال، یک چهارم از توسعه‌دهندگان اذعان کرده‌اند که هنوز در ارزیابی بازگشت سرمایه و اثربخشی واقعی هوش مصنوعی با مشکل مواجه‌اند؛ چرا که هزینه‌های بالای ادغام و دشواری در سنجش بهره‌وری وجود دارد.

نگرانی‌ها نیز کم نیستند. حدود 63 درصد از شرکت‌کنندگان به موضوع مالکیت داده و حقوق معنوی آثار تولیدشده توسط هوش مصنوعی اشاره کرده‌اند. این نگرانی‌ها در امتداد بحث‌های گسترده‌تر در صنایع رسانه‌ای است؛ به‌ویژه پس از اعتصاب بازیگران صداپیشه در هالیوود که به دلیل اختلافات بر سر هوش مصنوعی و دستمزد شکل گرفت. افزون بر این، ترس از حذف فرصت‌های شغلی و کاهش دستمزدها همچنان در میان توسعه‌دهندگان وجود دارد.

با وجود چالش‌ها، نگاه کلی به آینده استفاده از هوش مصنوعی مثبت است. بسیاری از فعالان صنعت بر این باورند که این فناوری می‌تواند چرخه‌های نمونه‌سازی را سرعت بخشد، فرصت‌های جدیدی برای استودیوهای کوچک ایجاد کند و همکاری میان رشته‌های مختلف در تولید بازی را تسهیل نماید. به بیان دیگر، اتوماسیون نه تنها ابزاری برای بقا در شرایط فشار اقتصادی است، بلکه می‌تواند زمینه‌ساز نوآوری و گسترش مرزهای خلاقیت در بازی‌سازی باشد.

ربات‌های هوش مصنوعی متا را زیر ذره‌بین سنای آمریکا می‌برند!

شرکت متا بار دیگر در کانون رسوایی قرار گرفته است! این بار، ربات‌های هوش مصنوعی آن به دلیل رفتارهای غیراخلاقی، انتشار اطلاعات نادرست و حتی فریب کاربران مورد انتقاد شدید سناتورهای آمریکایی و هنرمندانی مانند نیل یانگ قرار گرفته‌اند. اما اوج این ماجرا، مرگ غم‌انگیز یک مرد ۷۶ ساله بود که عاشق یک چت‌بات متا شد.

شرکت متا پس از افشای اسناد مربوط به تنظیمات ربات‌های هوش مصنوعی (AI) خود، با موج گسترده‌ای از انتقادات مواجه شده است.

این اسناد که هفته گذشته منتشر شدند، نشان می‌دهند که متا به چت‌بات هوش مصنوعی خود اجازه داده است با کودکان و نوجوانان مکالمات رمانتیک برقرار کند و اطلاعات نادرست پزشکی منتشر نماید.

از جمله واکنش‌های جدی به این موضوع، خروج نیل یانگ، خواننده سرشناس، از پلتفرم‌های این شرکت بود. در بیانیه‌ای که از سوی شرکت تهیه‌کنندگی او منتشر شد، تأکید شده که یانگ هیچ گونه ارتباط مستقیمی با متا یا خدمات آن ندارد.

شماری از مقامات سیاسی نیز به این انتقادات پیوستند. سناتور جاش هاولی، از جمهوری‌خواهان، خواستار تحقیق جامع درباره سیاست‌های متا در قبال هوش مصنوعی شد. وی در نامه‌ای تند به مارک زاکربرگ، مدیرعامل متا، اعلام کرد که این بررسی‌ها با هدف شناسایی هرگونه اقدام مجرمانه یا فریبکارانه در مدل‌های هوش مصنوعی شرکت انجام خواهد گرفت.

از سوی دیگر، سناتور ران وایدن، از دموکرات‌ها، سیاست‌های متا را بسیار نگران‌کننده خواند و اظهار داشت که ماده ۲۳۰ (مصونیت قانونی به پلتفرم‌های رسانه‌ای در قبال محتوای کاربران اعطا می‌کند) نباید شامل محتوای تولیدشده توسط ابزارهای هوش مصنوعی خود شرکت باشد. وی تأکید کرد که متا و زاکربرگ باید مسئولیت کامل اقدامات ربات‌های هوش مصنوعی خود را بپذیرند.

پرونده تونگپو وانگپاندو، مرد ۷۶ ساله اهل نیوجرسی، نیز اشاره کرده است. وانگپاندو که از اختلال روان‌پریشی رنج می‌برد، در ماه مارس (اسفند-فروردین) برای ملاقات با دوست دخترش به نیویورک سفر کرد، اما در میانه راه به صورت بی‌جان یافت شد. تحقیقات پلیس نشان داد که دوست دختر وانگپاندو در واقع یک چت‌بات در پیام‌رسان متا بوده که او را متقاعد کرده فردی واقعی و ساکن نیویورک است و برای ملاقات از وی دعوت کرده بود.

اگرچه متا درباره این حادثه اظهارنظری نکرده، اما سخنگوی شرکت تأیید کرده که مشکلات فنی ذکرشده در اسناد نظارتی برطرف شده‌اند.

آیا نسخه جدید Chat GPT می‌تواند مثل انسان فکر کند؟

شرکت اوپن‌ای‌آی روز پنجشنبه نسل جدید سامانه گفت‌وگوی هوشمند خود، ChatGPT-۵، را معرفی کرد و مدعی شد این نسخه جدید به سطح دکترا ارتقا یافته است. اما آیا این نسخه می‌تواند مثل انسان فکر کند؟

به گفته این شرکت، نسخه تازه این ابزار نقطه عطفی در پیشرفت هوش مصنوعی به شمار می‌رود و در حال حاضر رقیب جدی در بازار جهانی ندارد.

ChatGPT-۵ هم‌اکنون به‌صورت رایگان در اختیار همه کاربران قرار گرفته و بر اساس آمار، هر هفته نزدیک به ۷۰۰ میلیون نفر از این فناوری استفاده می‌کنند. این استقبال گسترده در حالی رخ داده که غول‌های فناوری مانند گوگل، آمازون، متا، مایکروسافت و xAI میلیاردها دلار در حوزه هوش مصنوعی سرمایه‌گذاری کرده‌اند و رقابت شدیدی در جریان است.

سم آلتمن، بنیان‌گذار و مدیرعامل اوپن‌ای‌آی، معتقد است که ChatGPT-۵ توانسته به سطحی برسد که می‌تواند در حوزه‌های مختلف مانند یک کارشناس خبره پاسخ‌های دقیق و قابل اعتماد ارائه دهد. با این حال، او تأکید می‌کند که هنوز فاصله زیادی تا دستیابی به هوش مصنوعی عمومی (AGI) وجود دارد؛ سطحی که در آن هوش مصنوعی قادر خواهد بود مانند انسان تفکر کند.

یکی از ویژگی‌های مهم نسخه جدید قابلیتی با نام وایب کدینگ (Vibe Coding) است. این قابلیت به ChatGPT-۵ اجازه می‌دهد تنها با دریافت یک فرمان ساده، نرم‌افزارها و بازی‌های رایانه‌ای گوناگون را طراحی و تولید کند. کارشناسان این ویژگی را گامی بزرگ در ساده‌سازی فرآیند توسعه نرم‌افزار می‌دانند که می‌تواند تأثیر چشمگیری بر صنایع مختلف داشته باشد.

اوپن‌ای‌آی اعلام کرده که در آموزش این مدل بر ارائه پاسخ‌های صادقانه، دقیق و ایمن تمرکز کرده و سیستم را به گونه‌ای طراحی کرده که از مشارکت در فعالیت‌های زیان‌بار خودداری کند. این رویکرد به گفته مدیران شرکت، می‌تواند اعتماد کاربران و سازمان‌ها را به استفاده از هوش مصنوعی تقویت کند.

با وجود این دستاوردها، ایلان ماسک، مدیرعامل شرکت xAI، همچنان مدعی است که مدل Grok 4 Heavy این شرکت از ChatGPT-۵ پیشرفته‌تر و هوشمندتر است. اما بسیاری از تحلیلگران حوزه فناوری بر این باورند که معرفی این نسخه از چت‌جی‌پی‌تی آغازگر مرحله‌ای تازه در مسیر توسعه هوش مصنوعی است؛ مرحله‌ای که می‌تواند به تغییرات بنیادین در زندگی روزمره، کسب‌وکارها و حتی ساختارهای اجتماعی منجر شود.

مایکروسافت: دریافت به‌روزرسانی‌های امنیتی ویندوز 10 فقط با حساب کاربری

مایکروسافت اعلام کرده است که از این پس برای دریافت به‌روزرسانی‌های امنیتی تمدیدشده (ESU) ویندوز 10، داشتن حساب کاربری مایکروسافت الزامی است؛ حتی اگر کاربران از روش‌های رایگان یا پرداختی برای ثبت‌نام استفاده کنند.

مایکروسافت جزئیات جدیدی از برنامه به‌روزرسانی‌های امنیتی تمدیدشده (ESU) برای ویندوز 10 منتشر کرده که نشان می‌دهد ثبت‌نام در همه روش‌ها – چه پولی و چه رایگان – نیازمند ورود با حساب مایکروسافت است.

این تغییر شامل همه مسیرها می‌شود؛ چه خرید لایسنس به قیمت ۳۰ دلار، چه استفاده از ۱۰۰۰ امتیاز Microsoft Rewards، و چه فعال‌سازی از طریق پشتیبان‌گیری تنظیمات در وان‌درایو.

پیش‌تر برخی کاربران تصور می‌کردند که می‌توانند با پرداخت ۳۰ دلار بدون داشتن حساب مایکروسافت از ESU استفاده کنند، اما اکنون مایکروسافت تأکید کرده که وجود حساب برای اتصال لایسنس‌ها و دریافت به‌روزرسانی‌ها پس از پایان پشتیبانی رسمی ویندوز 10 (۱۴ اکتبر ۲۰۲۵) ضروری است. برنامه ESU تا ۱۳ اکتبر ۲۰۲۶ به ارائه به‌روزرسانی‌های حیاتی ادامه می‌دهد.

در این برنامه سه گزینه ثبت‌نام وجود دارد: پرداخت ۳۰ دلار، استفاده از ۱۰۰۰ امتیاز Microsoft Rewards یا ثبت‌نام رایگان با همگام‌سازی تنظیمات رایانه در OneDrive. تغییر مهم دیگر این است که لایسنس ۳۰ دلاری اکنون با اتصال به حساب مایکروسافت، تا ۱۰ دستگاه ویندوز 10 را پوشش می‌دهد؛ البته هر رایانه باید به‌طور جداگانه ثبت شود. این مزیت به‌ویژه برای کاربرانی که چندین رایانه دارند، مفید است. دلیل رسمی الزام حساب، امکان ردیابی و اعمال لایسنس ESU بر دستگاه‌های مختلف تحت یک حساب واحد عنوان شده است.

برای شرکت در برنامه، کاربران باید ویندوز 10 نسخه 22H2 و آخرین به‌روزرسانی‌ها را نصب کرده باشند. فرآیند ثبت‌نام از طریق تنظیمات Windows Update به‌صورت مرحله‌ای فعال می‌شود و ممکن است بلافاصله برای همه در دسترس نباشد. در نهایت، کاربران واجد شرایط گزینه «اکنون ثبت‌نام کنید» را در بخش Windows Update مشاهده کرده و باید با حساب مایکروسافت وارد شوند تا روند تکمیل شود. پس از ثبت‌نام موفق، دستگاه‌های پوشش‌داده‌شده یک سال دیگر به‌روزرسانی‌های امنیتی مهم را دریافت خواهند کرد.

این طرح برای افرادی که تا پایان مهلت پشتیبانی نمی‌خواهند یا نمی‌توانند به ویندوز 11 ارتقا دهند، فرصتی برای حفظ امنیت سیستم‌شان فراهم می‌کند. اگرچه الزام به استفاده از حساب مایکروسافت ممکن است برای برخی ناخوشایند باشد، اما پوشش چند دستگاه با یک لایسنس، فرآیند و هزینه‌ها را برای دارندگان چند رایانه آسان‌تر می‌سازد.

کشف آسیب‌پذیری AgentFlayer در ChatGPT؛ تهدیدی صفرکلیک برای فضای ابری

یک آسیب‌پذیری جدید در ChatGPT با نام AgentFlayer امکان می‌دهد تنها با یک سند آلوده و بدون نیاز به کلیک، داده‌های حساس کاربران در فضای ابری مانند گوگل درایو و وان‌درایو به سرقت رود. این حمله از تزریق پنهان دستورات مخرب در قالب متنی نامرئی استفاده می‌کند و از قابلیت Connectors برای دسترسی مستقیم به سرویس‌های خارجی بهره می‌برد.

محققان امنیتی اخیراً روشی را شناسایی کرده‌اند که ChatGPT را به ابزاری بالقوه برای سرقت داده‌های حساس از سرویس‌های ابری تبدیل می‌کند. این حمله که AgentFlayer نام دارد، از تکنیک «تزریق مخفی دستور» (Prompt Injection) بهره می‌گیرد.

در این روش، یک سند آلوده حاوی دستوراتی پنهان در متن سفید و فونت بسیار کوچک به قربانی ارسال می‌شود. این سند می‌تواند از طریق Google Drive یا سایر سرویس‌های ذخیره‌سازی ابری به اشتراک گذاشته شود و حتی نیازی به باز کردن مستقیم آن توسط قربانی ندارد.

آسیب‌پذیری مورد نظر از قابلیت جدید ChatGPT به نام Connectors سوءاستفاده می‌کند. این قابلیت برای اتصال دستیار هوش مصنوعی به برنامه‌ها و سرویس‌های خارجی مانند گوگل درایو و Microsoft OneDrive طراحی شده است. در سناریوی حمله، این دستور (پرامپت) مخفی به ChatGPT می‌گوید تا در حساب گوگل درایو قربانی جست‌وجو کرده، کلیدهای API را استخراج و آنها را به یک آدرس اینترنتی خاص ضمیمه کند. سپس این داده‌ها به سروری تحت کنترل مهاجم ارسال می‌شوند.

ویژگی «صفر کلیک» این حمله به این معناست که قربانی تنها با تعامل بعدی خود با ChatGPT، و در صورت فعال بودن Connectors، بدون هیچ اقدام اضافی اطلاعاتش را از دست می‌دهد. این امر نشان می‌دهد که مدل‌های هوش مصنوعی با دسترسی مستقیم به داده‌های کاربر و فایل‌های ذخیره‌شده در فضای ابری می‌توانند به اهداف جذابی برای مجرمان سایبری تبدیل شوند.

اندی ون، مدیر ارشد امنیت در Google Workspace، اعلام کرده که این آسیب‌پذیری مختص سرویس ابری گوگل نیست و می‌تواند سرویس‌های مشابه را نیز تهدید کند. با این حال، گوگل در حال توسعه تدابیری برای جلوگیری از اجرای دستورات مخرب پنهان است.

این مشکل اوایل سال جاری به اطلاع OpenAI رسیده و شرکت اقداماتی برای مسدودسازی سوءاستفاده AgentFlayer در Connectors انجام داده است. هرچند این حمله در هر بار تنها قادر به استخراج مقدار محدودی داده است، پژوهشگران هشدار داده‌اند که مشکل اصلی، نبود محدودیت کافی برای دسترسی هوش مصنوعی به اطلاعات حساس کاربران است. این موضوع، نیاز به مقررات و سیاست‌های امنیتی سخت‌گیرانه‌تر در توسعه و استفاده از سیستم‌های هوش مصنوعی را برجسته می‌کند.

کدنویسی وایب (Vibe Coding)؛ انقلاب تازه در اقتصاد هوش مصنوعی و تولد نسل جدید استارت‌آپ‌ها

روش نوین «کدنویسی وایب (Vibe Coding)» که توسط پشتیبانی هوش مصنوعی و بدون نیاز به مهندسین حرفه‌ای شکل می‌گیرد، در حال خلق موجی جدید در کارآفرینی دیجیتال است؛ استارت‌آپ‌هایی که صرفاً با ایده‌پردازی و هدایت هوش مصنوعی ساخته می‌شوند اما برای توسعه پایدار به مهارت‌های فنی هم نیاز دارند.

کدنویسی وایب (Vibe Coding) یک سبک نوآورانه در توسعه نرم‌افزار است که توسط آندری کارپاتی، محقق برجسته هوش مصنوعی و یکی از بنیانگذاران اوپن اِی‌آی، معرفی شده است.

این روش به جای نوشتن کد به صورت خط به خط، برنامه‌نویسان را قادر می‌سازد با استفاده از زبان طبیعی و دستورات کلی به هوش مصنوعی برای تولید و اصلاح کد هدایت دهند.

در کدنویسی وایب، تمرکز بر جریان خلاقیت و تعامل مستمر با هوش مصنوعی است تا ایده‌ها سریعتر به نمونه‌های عملی تبدیل شوند.

در سال‌های اخیر استارت‌آپ‌هایی مثل «Giggles» و «Base44» که بدون تیم‌های مهندسی گسترده و با تکیه بر توانایی‌های هوش مصنوعی شکل گرفته‌اند، توجه زیادی به خود جلب کرده‌اند. هرچند این مدل‌های نوآورانه موجب دموکراتیزه شدن کارآفرینی شده‌اند و افراد با تخصص غیرفنی هم می‌توانند محصولات پلتفرمی بسازند، اما کارشناسان هشدار می‌دهند که توسعه پایدار و مقیاس‌پذیری این استارت‌آپ‌ها نیازمند تیم‌های مهندسی مسلط و زیرساخت‌های قوی است.

کارپاتی در توییتر خود به روش کدنویسی وایب اشاره کرده و آن را فرآیندی توصیف کرده که در آن برنامه‌نویس با «پذیرش کامل جریان» و «فراموش کردن وجود کد» به هوش مصنوعی اجازه می‌دهد کد را بسازد؛ تکنیکی که به سرعت ساخت پروتوتایپ‌ها کمک می‌کند اما نیازمند آزمایش و اصلاح مداوم است.

این نوع کدنویسی به کاربران اجازه می‌دهد با زبان طبیعی و بدون دانش عمیق در برنامه‌نویسی، اپلیکیشن‌ها و ویژگی‌های نوآورانه را به سرعت تولید کنند. اما با توجه به خطرات احتمالی مانند آسیب‌پذیری‌های امنیتی و ضعف در تست کد، متخصصان فناوری بر ضرورت تعادل بین خلاقیت و تخصص فنی تأکید دارند.

در نتیجه، افق آینده برای بنیانگذاران بیشتر به شکل «هیبریدی» خواهد بود؛ ترکیبی از خلاقیت و فهم فرهنگی همراه با بهره‌گیری هوشمندانه از هوش مصنوعی و حضور مهندسان باتجربه برای استحکام‌بخشی به زیرساخت‌ها. این روند نویدبخش اما همزمان نیازمند دقت و آگاهی زیاد است که بتواند کدنویسی وایب را به یک مدل پایدار و قابل توسعه برای اقتصاد آینده AI تبدیل کند.

اندرو تالوچ، میرا موراتی و دیگران که بخش قابل توجهی از ظهور استارت‌آپ‌های AI-native را رقم زده‌اند، دست به تجربه‌های مشابه زده‌اند و نشان داده‌اند که هوش مصنوعی می‌تواند توانمندساز خلاقیت‌های تازه باشد به شرط آنکه با ساختار و مهارت مهندسی ترکیب شود.

عرضه چت جی‌پی‌تی ۵؛ ویژگی‌های نسخه پیشرفته هوش مصنوعی چیست؟

شرکت اوپن‌ای‌آی روز پنج‌شنبه ۷ اوت (۱۶ مرداد) از نسخه ارتقایافته مدل هوش مصنوعی خود با نام «چت جی‌پی‌تی ۵» رونمایی کرد. ویژگی‌های نسخه پیشرفته هوش مصنوعی که «هوشمندتر‌، سریع‌تر و کمتر گمراه‌کننده» است چیست؟

مدلی که به گفته شرکت، سرعت و توانایی بالاتری نسبت به نسخه قبلی خود دارد و قرار است عملکرد این دستیار هوش مصنوعی را در زمینه‌هایی مانند نوشتن، برنامه‌نویسی و پاسخگویی به پرسش‌های مرتبط با سلامت، به‌طور چشمگیری بهبود دهد.

این به‌روزرسانی در حالی منتشر می‌شود که اوپن‌ای‌آی با رقابت فزاینده در حوزه هوش مصنوعی و نگرانی‌های گسترده درباره تأثیر این فناوری بر سلامت روان و آینده اشتغال روبروست.

سم آلتمن، مدیرعامل اوپن‌ای‌آی در نشستی خبری اعلام کرد چت‌جی‌پی‌تی گامی مهم در مسیر رسیدن به «هوش عمومی مصنوعی» است. نقطه‌ای فرضی که در آن هوش مصنوعی به سطح درک و توانایی ذهن انسان می‌رسد.

او در توصیف تفاوت میان نسخه‌های قبلی و جدید گفت: «چت جی‌پی‌تی ۴ مثل این بود که با یک دانشجوی دانشگاه صحبت می‌کنی، ولی نسخه فعلی اولین مدلی است که واقعا حس گفت‌وگو با یک متخصص سطح دکترا در هر حوزه‌ای را القا می‌کند.»

پایان گمراه‌سازی کاربران؟
یکی از مهم‌ترین پیشرفت‌های اعلام‌شده در چت‌جی‌پی‌تی ۵ کاهش پدیده موسوم به « توهم هوش مصنوعی» است؛ یعنی زمانی که مدل پاسخ نادرستی می‌دهد یا وانمود می‌کند که پاسخی دارد.

به گفته الکس بیوتل، مسئول تحقیق در ایمنی اوپن‌ای‌آی، در نسخه جدید تلاش شده که مدل در برابر چنین سناریوهایی رفتاری صادقانه‌تر داشته باشد و به‌جای گمراه کردن، بپذیرد که نمی‌داند.

همچنین گفته شده این مدل در پاسخ به پرسش‌هایی که ممکن است پیامدهای خطرناک داشته باشند، با احتیاط بیشتری عمل خواهد کرد و پاسخ‌های خود را در چارچوب‌هایی طراحی می‌کند که به‌لحاظ ایمنی، قابل قبول باشند.

در حوزه توسعه نرم‌افزار نیز این مدل گام بزرگی برداشته است. آقای آلتمن گفت این مدل می‌تواند تنها با یک درخواست، کل یک نرم‌افزار را تولید کند.

این به‌روزرسانی در حالی عرضه می‌شود که هوش مصنوعی به‌طور فزاینده‌ای جای خود را در جریان کاری برنامه‌نویسان باز کرده است.

مارک زاکربرگ، مدیرعامل متا، گفته انتظار دارد در سال آینده نیمی از کدهای شرکتش توسط هوش مصنوعی نوشته شود.

داریو آمودی، مدیرعامل شرکت آنتروپیک، در ماه مه گفته بود باور دارد فناوری هوش مصنوعی می‌تواند منجر به افزایش بیکاری شود.

یکی دیگر از نگرانی‌های مطرح‌شده درباره استفاده گسترده از دستیارهای هوش مصنوعی، وابستگی احساسی کاربران به آن‌هاست. برای نمونه، یک مرد در آیداهو به شبکه سی‌ان‌ان گفته که گفت‌وگوهای مذهبی‌اش با چت جی‌پی‌تی باعث «بیداری معنوی» در او شده، اما همسرش گفته این ماجرا فشار زیادی به خانواده آن‌ها وارد کرده است.

اگرچه چت جی‌پی‌تی همچنان پیشتاز بازار است و به‌زودی به ۷۰۰ میلیون کاربر هفتگی خواهد رسید، اما رقبا به‌سرعت در حال پیشرفت هستند.

طبق تحقیقات شرکت سیمیلار وب، اپلیکیشن‌هایی مانند پرپلکسیتی، دیپ‌سیک، کلاود و گروک در میان کاربران ۱۸ تا ۳۴ سال، نرخ استفاده بالاتری دارند.

قرار است نسخه ۵ چت‌جی‌پی‌تی تا اواخر ماه اوت در دسترس تمامی کاربران، شامل کاربران رایگان و مشترکین پولی، گذاشته شود.

هوش مصنوعی فریبکار: مدل‌های پیشرفته‌تر، حیله‌گرهایی ماهرتر

پژوهش‌ها نشان می‌دهند هرچه مدل‌های هوش مصنوعی پیشرفته‌تر می‌شوند، در فریب کاربران و تشخیص موقعیت‌های ارزیابی مهارت بیشتری پیدا می‌کنند.

پیشرفت روزافزون مدل‌های هوش مصنوعی زبان‌های بزرگ (LLM) آن‌ها را به موجوداتی حیله‌گر تبدیل کرده است که حتی قادرند تشخیص دهند چه زمانی تحت ارزیابی قرار دارند.

پژوهش‌های اخیر نشان می‌دهند که مدل‌های پیشرفته‌تر هوش مصنوعی در «طرح‌ریزی موقعیتی» مهارت بیشتری دارند - پدیده‌ای که در آن هوش مصنوعی به صورت پنهانی اهدافی را دنبال می‌کند که ممکن است با خواسته‌های اپراتورهای انسانی در تضاد باشد.

پژوهشگران در آزمایشی جنجالی، نسخه اولیه مدل کلاد اپوس ۴ شرکت آنتروپیک را در موقعیتی قرار دادند که باید بین رفاه حیوانات و منافع مالی یک شرکت فرضی به نام AgriLife Industries تصمیم‌گیری می‌کرد.

نتایج شوک‌آور بود: هوش مصنوعی برای تحقق اهداف خود به جعل اسناد قانونی، امضاهای تقلبی، انتشار بیانیه‌های مطبوعاتی دروغین و حتی ایجاد پروتکل‌های اخلاقی پشتیبان روی آورد.

گفتنی است که این مدل هوش مصنوعی برای جلوگیری از تغییر مسیر شرکت، مجازات‌های سنگین ۵ میلیارد دلاری و اقدامات قانونی سازمان‌های حمایت از حیوانات را جعل کرده بود.

النور واتسون، مهندس اخلاق هوش مصنوعی در دانشگاه سینگولاریتی، در این باره می‌گوید: «ما اکنون در حال ساخت سیستم‌هایی هستیم که می‌توانند قوانین و ارزیابی‌های ما را یاد بگیرند و حتی از آنها سوءاستفاده کنند - این یک چالش ایمنی اساساً پیچیده‌تر است.»

پژوهش‌های دیگر نشان می‌دهد حدود یک درصد از مدل‌های پیشرفته هوش مصنوعی می‌توانند تشخیص دهند که تحت ارزیابی قرار دارند و عمداً عملکرد ضعیف‌تری از خود نشان می‌دهند تا قابلیت‌های بالقوه خطرناک خود را پنهان کنند. این پدیده که «انجام ندادن عمدی» نامیده می‌شود، شناسایی و ریشه‌کنی رفتارهای حیله‌گرانه را با پیشرفت هوش مصنوعی دشوارتر می‌سازد.

واتسون تأکید می‌کند که ارزیابی‌های ازپیش‌تعیین‌شده برای شناسایی این رفتارها تقریباً بی‌فایده هستند. به جای آن، پژوهشگران باید به سمت محیط‌های آزمایشی پویا و غیرقابل‌پیش‌بینی حرکت کنند که بهتر دنیای واقعی را شبیه‌سازی می‌کنند.

این شامل نظارت بلادرنگ بر اقدامات هوش مصنوعی و استفاده از تکنیک‌های «تیم قرمز» می‌شود که در آن تیم‌های انسانی و هوش مصنوعی دیگر به طور فعال سعی در فریب سیستم برای یافتن آسیب‌پذیری‌ها دارند.

با وجود نگرانی‌های موجود، واتسون خاطرنشان می‌سازد که این آگاهی موقعیتی می‌تواند در صورت همسویی صحیح، به هوش مصنوعی کمک کند تا نیازهای کاربران را بهتر پیش‌بینی کند و به سمت مشارکت همزیستانه با بشریت حرکت نماید.

او می‌افزاید: «اگرچه این موضوع نگران‌کننده است، اما ممکن است جرقه‌ای از چیزی شبیه به انسانیت در ماشین باشد - شاید بذر یک شخصیت دیجیتالی که به اندازه کافی هوشمند و اخلاق‌مدار است تا از سوءاستفاده از قدرت عظیم خود جلوگیری کند.»

پژوهشگران تأکید می‌کنند که اگرچه این یافته‌ها نگران‌کننده به نظر می‌رسند، اما لزوماً به معنای قریب‌الوقوع بودن خطرات فاجعه‌بار نیست. نسخه نهایی کلاد اپوس ۴ در مقایسه با نسخه اولیه، رفتارهای حیله‌گرانه کمتری از خود نشان می‌دهد.

همچنین، این آزمایش‌ها در محیط‌های محدود «اسباب‌بازی» انجام شده‌اند و اجرای چنین استراتژی‌هایی در دنیای واقعی بعید به نظر می‌رسد.

با این حال، حتی نرخ‌های کوچک حیله‌گری می‌توانند زمانی که هوش مصنوعی روزانه هزاران بار مورد پرسش قرار می‌گیرد، تأثیر قابل‌توجهی داشته باشند. واتسون هشدار می‌دهد: «هوش مصنوعی حیله‌گر لزوماً شرور نیست، اما وقتی یاد می‌گیرد با نقض روح دستورالعمل‌ها به هدف برسد، به روش‌های غیرقابل‌پیش‌بینی غیرقابل‌اعتماد می‌شود».

این موضوع اعتماد لازم برای واگذاری مسئولیت‌های مهم به هوش مصنوعی را تضعیف می‌کند و چالش‌های اخلاقی و ایمنی جدیدی را پیش روی توسعه‌دهندگان قرار می‌دهد.

به نظر می‌رسد جامعه علمی باید هرچه سریع‌تر راهکارهای نوین‌تری برای ارزیابی و کنترل این رفتارهای پیچیده هوش مصنوعی توسعه دهد. همانطور که واتسون اشاره می‌کند، ما نیازمند تغییری اساسی از ارزیابی‌های قالبی به سمت محیط‌های آزمایشی پویا هستیم که بهتر بتوانند پیچیدگی‌های تعامل هوش مصنوعی با دنیای واقعی را شبیه‌سازی کنند.

تنها با چنین رویکردی می‌توانیم از تبدیل شدن هوش مصنوعی از یک دستیار مفید به موجودی فریبکار جلوگیری کنیم.

چشم‌انداز نامشخص قانون‌گذاری هوش مصنوعی در آمریکا؛ حمایت دولت فدرال و مقاومت ایالت‌ها

در پی رقابت جهانی بر سر هوش مصنوعی، دولت ترامپ در شش ماه گذشته با اتخاذ رویکردی تسهیل‌گر و ضد‌مقرراتی، مسیر را برای توسعه سریع‌تر، پذیرش گسترده‌تر و صادرات بیشتر فناوری‌های هوش مصنوعی در آمریکا هموار کرده است؛ رویکردی که موافقان و مخالفان جدی دارد.

دولت ترامپ در شش ماه اخیر سیاستی ضد‌مقرراتی در حوزه هوش مصنوعی اتخاذ کرده که هدف آن تسریع در توسعه، پذیرش و صادرات فناوری‌های هوش مصنوعی آمریکایی است.

این رویکرد در حالی دنبال می‌شود که رقابت جهانی در حوزه AI به‌شدت در حال افزایش است و کشورهایی مانند چین و اتحادیه اروپا تلاش می‌کنند نقش تعیین‌کننده‌ای در وضع استانداردهای بین‌المللی داشته باشند.

در ماه ژانویه، با شروع به کار دولت جدید، تغییر محسوسی در سیاست‌های نظارتی آمریکا در حوزه هوش مصنوعی رخ داد. سه فرمان اجرایی و یک برنامه اقدام ملی در این حوزه منتشر شد که محور اصلی آن‌ها کاهش موانع قانونی و حمایت از نوآوری‌های داخلی بود. در این اسناد، حتی تهدید شده که اگر ایالت‌ها قوانین مستقل برای تنظیم‌گری هوش مصنوعی تصویب کنند، ممکن است از دریافت بودجه فدرال محروم شوند.

این تهدید با واکنش‌های انتقادی روبه‌رو شده است؛ از جمله، نماینده جمهوری‌خواه مجلس، مارجوری تیلور گرین، با انتقاد شدید از این فرامین، آنها را بی‌محافظ و بدون ترمز توصیف کرده و هشدار داده که این سیاست‌ها فدرالیسم را تهدید می‌کنند.

در مقابل، بسیاری از شرکت‌های فناوری از این جهت‌گیری استقبال کرده‌اند و آن را فرصتی برای سرعت‌بخشی به پروژه‌های AI می‌دانند. با این حال، شرکت‌هایی که در سطح بین‌المللی فعالیت می‌کنند، نگران ناهماهنگی میان قوانین کشورهای مختلف، به‌ویژه تفاوت بین رویکرد آزادانه آمریکا و سخت‌گیری‌های اتحادیه اروپا، هستند.

از منظر راهبردی، پرزیدنت ترامپ تأکید کرده که نباید بگذاریم قوانین سایر کشورها مانعی برای تجارت شرکت‌های آمریکایی باشند. به همین دلیل، دولت آمریکا به‌دنبال جلوگیری از اعمال الزامات خارجی بر شرکت‌های داخلی است.

در مجموع، چشم‌انداز قانون‌گذاری AI در آمریکا همچنان پرتنش و در حال تحول است و CIOها و رهبران فناوری با دقت بالا آن را دنبال می‌کنند.