انقلاب هوش مصنوعی: چگونه معماری کامپیوترهای جهان را دگرگون کرد؟

هوش مصنوعی نه‌تنها نرم‌افزارها، بلکه سخت‌افزارهای جهان را متحول کرده است. از ابررایانه‌های مبتنی بر کارت‌های گرافیکی تا مراکز داده پرمصرف، این فناوری در حال بازنویسی قوانین صنعت محاسبات است.

در طول تاریخ، نوآوری‌های فناورانه معدودی بوده‌اند که توانسته‌اند تحولی بنیادین در ساختار جهان و صنایع مختلف ایجاد کنند. همان‌طور که انقلاب صنعتی نقشی ماندگار در شکل‌گیری دنیای امروز داشت، اکنون نیز هوش مصنوعی در حال رقم زدن انقلابی تازه در حوزه فناوری است؛ انقلابی که فراتر از سطح کاربران معمولی، زیرساخت‌های اصلی دنیای دیجیتال، از جمله پایگاه‌های داده و مراکز پردازشی را دگرگون می‌سازد.

بازتعریف زیرساخت‌ها با محوریت هوش مصنوعی
از زمان ظهور اینترنت در دهه ۱۳۷۰ خورشیدی (۱۹۹۰ میلادی)، کامپیوترها و نحوه تعامل ما با آن‌ها دچار تحولات شگرفی شدند. اکنون، فناوری هوش مصنوعی در حال دگرگون کردن فرآیند طراحی و ساخت کامپیوترهای هوشمند در سطح جهانی است. شرکت‌های فناوری، هم‌زمان در دو جبهه مشغول رقابت‌اند: برخی در حال توسعه مدل‌هایی هستند که کاربران نهایی بتوانند از آن‌ها بهره‌برداری کنند و گروهی دیگر، زیرساخت‌هایی را برای پاسخ به نیازهای سنگین محاسباتی مدل‌های هوش مصنوعی فراهم می‌آورند.

نقش کلیدی کارت‌های گرافیک در این تحول
مرکز داده یا «دیتاسنتر» مفهومی آشنا برای فعالان فناوری است. این مراکز که ابتدا برای پاسخ به نیازهای ذخیره‌سازی و انتقال داده در بستر اینترنت شکل گرفتند، اکنون به‌طور کامل در حال بازطراحی برای پشتیبانی از سیستم‌های هوش مصنوعی هستند.

کارت‌های گرافیک به‌عنوان واحدهایی با توان محاسباتی بالا، هسته اصلی این بازطراحی به شمار می‌روند. برخلاف پردازنده‌های سنتی (CPU) که پردازش را به‌صورت ترتیبی انجام می‌دهند، کارت‌های گرافیک قادرند داده‌ها را به‌صورت هم‌زمان و موازی پردازش کنند. این ویژگی باعث شده است که امروزه ابررایانه‌هایی با بیش از یک‌صد هزار کارت گرافیک، ستون فقرات مراکز داده هوش مصنوعی را تشکیل دهند.

از صنعت بازی تا آموزش مدل‌های هوشمند
در گذشته، استفاده از کارت‌های گرافیک بیشتر محدود به صنایع رسانه‌ای و بازی‌های رایانه‌ای بود. اما با کشف توانایی این کارت‌ها در استخراج رمزارز و اجرای مدل‌های هوش مصنوعی، تقاضا برای آن‌ها به‌طور چشمگیری افزایش یافت. این تغییر باعث شد تا شرکت‌ها به ساخت ابررایانه‌هایی متشکل از هزاران کارت گرافیک روی آورند؛ راهکاری که البته هزینه‌های هنگفتی نیز در پی داشته است.

برای نمونه، در حالی که نخستین مرکز داده گوگل در سال ۲۰۰۶ میلادی با هزینه‌ای حدود ۶۰۰ میلیون دلار راه‌اندازی شد، شرکت OpenAI و شرکای آن اکنون در حال برنامه‌ریزی برای ساخت مجموعه‌ای از مراکز داده هوش مصنوعی با برآورد هزینه‌ای بالغ بر ۵۰۰ میلیارد دلار هستند.

چالش‌های گسترده انرژی و خنک‌سازی
مراکز داده هوش مصنوعی علاوه بر هزینه‌بر بودن، مصرف انرژی بالایی نیز دارند. کارت‌های گرافیک در حین پردازش، حرارت زیادی تولید می‌کنند و همین امر نیاز به سامانه‌های خنک‌کننده تخصصی را به‌وجود آورده است. برخی شرکت‌ها مانند گوگل از سامانه‌های خنک‌سازی آبی با گردش مایع خنک‌کننده در مجاورت تراشه‌ها استفاده می‌کنند؛ روشی که علاوه بر اثربخشی، مصرف منابع آبی را نیز به‌شدت افزایش داده است.

برای نمونه، در سال ۲۰۲۳ میلادی مراکز داده گوگل بالغ بر ۶.۱ میلیارد گالن آب مصرف کردند. چنین ارقامی فشار زیادی بر منابع طبیعی وارد کرده و مسئله پایداری زیست‌محیطی این مراکز را به یک دغدغه جدی بدل کرده است.

انرژی بیشتر، گرمای بیشتر، دغدغه‌های بیشتر
افزایش مصرف برق توسط این مراکز نه‌تنها بر محیط زیست تأثیرگذار است، بلکه زیرساخت‌های شهری و منطقه‌ای را نیز تحت فشار قرار می‌دهد. به‌عنوان مثال، یک شرکت فعال در زمینه هوش مصنوعی تنها با نصب ده ردیف کامپیوتر مجهز به کارت‌های گرافیک، همان میزان برقی را مصرف می‌کند که پیش‌تر توسط هشتاد ردیف کامپیوتر سنتی مصرف می‌شد.

پیش‌بینی‌ها نشان می‌دهد مراکز داده هوش مصنوعی در آینده‌ای نزدیک بیش از چهار درصد از کل انرژی تولیدشده در ایالات متحده را مصرف خواهند کرد.

آینده چیست؟ از کامپیوترهای کوانتومی تا تراشه‌های سبک‌تر
در تلاش برای کنترل مصرف انرژی و بهینه‌سازی عملکرد، شرکت‌هایی چون گوگل و انویدیا در حال توسعه نسل جدیدی از تراشه‌ها هستند که با بهره‌گیری از معماری نورومورفیک، بتوانند کارایی بالاتری در اجرای مدل‌های هوش مصنوعی ارائه دهند. در کنار این تلاش‌ها، مفاهیمی مانند کامپیوترهای کوانتومی یا مدل‌های هوش مصنوعی کم‌مصرف‌تر نیز به‌عنوان راهکارهای احتمالی مطرح شده‌اند.

کلام پایانی
هرچند شرکت‌هایی مانند DeepSeek موفق شده‌اند بدون صرف هزینه‌های هنگفت، مدل‌های هوش مصنوعی مؤثری ارائه دهند، اما برای اکثریت بازیگران این عرصه، ساخت و نگهداری مراکز داده قدرتمند و کارآمد همچنان یک ضرورت است.

اگر صنعت هوش مصنوعی نتواند پاسخی برای چالش‌های فعلی، به‌ویژه در حوزه انرژی و محیط زیست بیابد، تأثیرات منفی آن نه‌تنها بر فضای فناوری، بلکه بر زندگی روزمره انسان‌ها نیز گسترده‌تر خواهد شد. آینده از آنِ راهکارهایی خواهد بود که بتوانند تعادل بین پیشرفت فناوری و پایداری منابع را حفظ کنند.

رونمایی OpenAI از Codex؛ عامل کدنویسی حرفه‌ای با قدرتی بی‌سابقه

شرکت OpenAI با رونمایی از Codex، انقلابی تازه در حوزه کدنویسی هوش مصنوعی به راه انداخته است. این ابزار پیشرفته، مهندسان نرم‌افزار را از کارهای تکراری نجات می‌دهد و نویدبخش آینده‌ای است که در آن، هم‌تیمی‌های مجازی نقش پررنگ‌تری در توسعه نرم‌افزارها ایفا خواهند کرد.

شرکت OpenAI روز جمعه از آغاز نسخه‌ پیش‌نمایش تحقیقاتی Codex خبر داد؛ عاملی هوش مصنوعی که تاکنون پیشرفته‌ترین ابزار این شرکت در زمینه کدنویسی محسوب می‌شود.

Codex بر پایه‌ مدل codex-1 توسعه یافته است؛ نسخه‌ای از مدل استدلال هوش مصنوعی o3 که به‌طور ویژه برای انجام وظایف مهندسی نرم‌افزار بهینه‌سازی شده است. بر اساس اعلام OpenAI، مدل codex-1 در مقایسه با o3، کدی «پاک‌تر» تولید می‌کند، دقیق‌تر به دستورالعمل‌ها پایبند است و در مسیر رسیدن به خروجی مطلوب، بارها کد را به‌صورت خودکار تست می‌کند.

این عامل در یک رایانه مجازی ایزوله‌شده در فضای ابری اجرا می‌شود و با اتصال به GitHub، می‌تواند به‌صورت پیش‌فرض با مخازن کد کاربر بارگذاری گردد. OpenAI اعلام کرده که Codex بسته به پیچیدگی وظیفه، بین یک تا سی دقیقه زمان برای انجام کارهایی مانند نوشتن ویژگی‌های ساده، رفع اشکال، پاسخ به پرسش‌های مربوط به کدبیس و اجرای تست‌ها نیاز دارد.

یکی از مزایای Codex، توانایی انجام هم‌زمان چند وظیفه‌ مهندسی نرم‌افزار است. همچنین کاربران بدون محدود شدن به رایانه یا مرورگر خاص، می‌توانند در زمان اجرای وظایف از سیستم خود استفاده کنند.

این ابزار از امروز برای مشترکین نسخه‌های Pro، Enterprise و Team در ChatGPT در دسترس قرار گرفته است. در ابتدا، کاربران با دسترسی «سخاوتمندانه» به Codex روبه‌رو خواهند بود، اما طبق اعلام OpenAI، طی هفته‌های آینده محدودیت‌هایی برای نرخ استفاده اعمال خواهد شد. همچنین کاربران قادر خواهند بود اعتبار اضافه برای استفاده بیشتر از Codex خریداری کنند.
به گفته‌ی OpenAI، به‌زودی دسترسی به این ابزار برای کاربران ChatGPT Plus و Edu نیز فراهم خواهد شد.

در ماه‌های اخیر، ابزارهای هوش مصنوعی مخصوص مهندسان نرم‌افزار (که گاه از آن‌ها با عنوان «کدنویسان vibe» یاد می‌شود) رشد چشمگیری یافته‌اند. مدیران عامل گوگل و مایکروسافت اعلام کرده‌اند که نزدیک به ۳۰ درصد از کدهای تولیدشده در شرکت‌هایشان اکنون توسط هوش مصنوعی نوشته می‌شود. در همین راستا، شرکت‌هایی مانند Anthropic و گوگل نیز محصولات مشابهی را معرفی کرده‌اند.

در چنین فضایی، OpenAI نیز در پی سهم‌گیری از بازار رو به رشد کدنویسی هوش مصنوعی است. این شرکت اخیراً با مبلغی حدود سه میلیارد دلار، قرارداد خرید Windsurf (توسعه‌دهنده یکی از پلتفرم‌های محبوب کدنویسی هوش مصنوعی) را نهایی کرده است.

کاربرانی که به Codex دسترسی دارند، می‌توانند از طریق نوار کناری ChatGPT به آن دسترسی پیدا کرده و با نوشتن دستور یا پرسش، وظیفه‌ای جدید به این عامل واگذار کنند. آن‌ها همچنین می‌توانند از Codex درباره کدبیس خود سوال بپرسند یا روند پیشرفت کارهای واگذار شده را پیگیری نمایند.

در یک نشست خبری پیش از معرفی رسمی Codex، جاش توبین، مدیر تحقیقات بخش Agents در OpenAI، اعلام کرد که هدف نهایی این شرکت، تبدیل عامل‌های کدنویسی به «هم‌تیمی‌های مجازی» برای مهندسان نرم‌افزار است؛ همکارانی که بتوانند کارهایی را که انسان‌ها برای انجامشان ساعت‌ها یا حتی روزها زمان صرف می‌کنند، به‌طور خودکار انجام دهند.

الکساندر امبیریکوس، مدیر محصول OpenAI نیز افزود که تدابیر ایمنی به‌کاررفته در مدل o3 برای Codex نیز اجرا شده‌اند. طبق ادعای OpenAI، Codex به‌طور مطمئن درخواست‌هایی برای توسعه‌ نرم‌افزارهای مخرب را رد می‌کند و تنها در یک محیط ایزوله، بدون دسترسی به اینترنت یا APIهای خارجی فعالیت می‌کند؛ امری که خطرات امنیتی این ابزار را کاهش داده اما ممکن است بر کاربردپذیری آن تأثیر بگذارد.
با این حال، مانند سایر مدل‌های مولد هوش مصنوعی، Codex نیز ممکن است مرتکب خطا شود. بر اساس پژوهشی از مایکروسافت، مدل‌هایی مانند Claude 3.7 Sonnet و o3-mini در رفع اشکالات نرم‌افزاری عملکردی ناپایدار دارند. با این وجود، شور و اشتیاق سرمایه‌گذاران نسبت به این ابزارها همچنان ادامه دارد.

OpenAI همچنین نسخه‌ی CLI از Codex را به‌روزرسانی کرده است؛ ابزاری متن‌باز که در ترمینال اجرا می‌شود و اکنون از نسخه‌ی o4-mini بهینه‌شده برای مهندسی نرم‌افزار بهره می‌برد. این مدل با نرخ ۱.۵۰ دلار برای هر یک میلیون توکن ورودی و ۶ دلار برای یک میلیون توکن خروجی، از طریق API شرکت نیز در دسترس است.

عرضه‌ی Codex نشان می‌دهد که OpenAI در تلاش است تا ChatGPT را با ابزارهایی فراتر از ربات چت ساده تقویت کند. از جمله مزایای دیگر اشتراک ChatGPT در سال گذشته می‌توان به دسترسی اولویت‌دار به پلتفرم هوش مصنوعی ویدیویی Sora، عامل پژوهشی Deep Research و مرورگر هوشمند Operator اشاره کرد.

چنین خدماتی می‌توانند کاربران جدیدی را به استفاده از ChatGPT ترغیب کنند و مشترکان فعلی را برای ارتقاء سطح اشتراک و استفاده بیشتر از امکانات، متقاعد سازند.

ایده بلندپروازانه سم آلتمن: هوش مصنوعی OpenAI تمام زندگی شما را ضبط خواهد کرد!

سم آلتمن مدیرعامل کمپانی OpenAI در رویدادی مربوط به هوش مصنوعی که اوایل ماه جاری توسط شرکت سرمایه‌گذاری سیلیکون‌ولی «سکویا» برگزار شد از چشم‌انداز بلندپروازانه‌ای که برای چت جی‌پی‌تی ترسیم کرده سخن گفت.

سم آلتمن مدیرعامل OpenAI در نظر دارد در آینده‌ای نه‌چندان دور، نسخه‌ای از ابزار هوش مصنوعی چت جی‌پی‌تی را به بازار عرضه کند که بتواند تمام زندگی یک فرد را در حافظه خود نگه دارد و براساس آن تصمیم‌گیری و تحلیل انجام دهد.

به گفته آلتمن نسخه‌ای که در آینده از چت‌جی‌پی‌تی خواهیم دید قادر است تمام گفتگوهایی که فرد در طول عمرش داشته، تمام کتاب‌هایی که خوانده، ایمیل‌هایی که دیده و حتی هر محتوایی که در اینترنت مرور کرده را در حافظه داشته باشد و از آن‌ها برای کمک به تصمیم‌گیری استفاده کند.

این مدل ایده‌آل در شرایطی به مرحله بهره‌برداری خواهد رسید که بتواند یک تریلیون توکن اطلاعات را در خود جای دهد. نکته جالب اینجاست که این ایده فقط به افراد محدود نمی‌شود، بلکه شرکت‌ها هم می‌توانند از نسخه‌ای از این مدل برای مدیریت و تحلیل داده‌های خود استفاده کنند.

به گفته آلتمن، بسیاری از جوان‌ها پیش از گرفتن تصمیم‌های مهم زندگی‌شان، حتماً با چت‌جی‌پی‌تی مشورت می‌کنند و به نوعی این ابزار تبدیل به سیستم عامل زندگی آن‌ها شده است. در حالی که کاربران مسن‌تر، از آن بیشتر به‌عنوان جایگزینی برای جستجو در گوگل استفاده می‌کنند.

آلتمن به نوعی مسیر آینده چت جی‌پی‌تی را ترسیم کرده و در نظر دارد این ابزار را به یک دستیار شخصی هوشمند تبدیل کند که همه چیز را درباره ما می‌داند، و شاید بهتر از خودمان بتواند تصمیم‌گیری کند، اما این مسیر، سؤالات مهمی درباره حریم خصوصی، اعتماد و کنترل داده‌ها به‌همراه دارد.

آیا می‌توان به شرکتی بزرگ و سودمحور مثل OpenAI اعتماد کرد تا همه اطلاعات زندگی ما را در اختیار داشته باشد؟ در حالی که پیشینه شرکت‌های بزرگ فناوری، بارها نشان داده در موضوعاتی مثل حفظ حریم خصوصی یا جلوگیری از سوگیری سیاسی، چندان بی‌نقص نبوده‌اند.

هوش مصنوعی در حال بازنویسی قواعد مدیریت برند است

در عصر هوش مصنوعی، اعتبار برندها دیگر فقط بر پایهٔ شعارهای تبلیغاتی بنا نمی‌شود. اکنون، هر تعامل دیجیتال می‌تواند به عامل موفقیت یا شکست یک برند تبدیل شود.

مایک آلتون (مدیر ارشد داستان‌سرایی در Agorapulse) در یادداشتی در لینکدین نوشت: «هوش مصنوعی فقط ابزار تولید محتوا یا خودکارسازی نیست؛ بلکه افراد را به کارآگاهان دیجیتال تبدیل کرده است.»

وی توضیح داد که تمام سوابق دیجیتال یک شرکت — از جمله نظرات مشتریان، مقالات، بازخورد کارکنان و احساسات فضای مجازی — اکنون در معرض دید و جست‌وجوی فوری قرار دارد. «پیام‌های تبلیغاتی دقیق هنوز اهمیت دارند، اما هوش مصنوعی می‌تواند در چند ثانیه آن‌ها را با داده‌های عمومی و خام مقایسه کند.»

اسکات روپ (مدیر روابط عمومی در شرکت Marchex) نیز معتقد است مزایای هوش مصنوعی برای مدیریت برند بسیار گسترده است: «شرکت‌هایی که بازخوردها را با کمک هوش مصنوعی تحلیل می‌کنند، پیش از وقوع بحران، علائم اولیهٔ فرسایش برند را تشخیص می‌دهند.»

وی می‌افزاید: «هوش مصنوعی امکان تشخیص نیازهای نوظهور مشتریان، تنظیم پیام‌ها بر اساس تغییرات احساسی، و حتی آموزش لحظه‌ای به کارکنان در تماس با مشتری را فراهم می‌کند.»

به باور وی، شهرت برندها اکنون سیال، قابل مشاهده و تحت‌تأثیر هر نقطهٔ تماس با مشتری است. سازمان‌هایی که صرفاً در سطح ظاهر به مدیریت شهرت می‌پردازند، دچار مشکل خواهند شد؛ اما آن‌هایی که به شفافیت رادیکال، هم‌سویی فرهنگ داخلی با وعده‌های بیرونی، و اهمیت‌دادن به هر تعامل با مشتری توجه می‌کنند، اعتماد عمومی را به دست خواهند آورد.

اعتمادسازی در کسری از ثانیه


مارک ونا (تحلیلگر ارشد در SmartTech Research) اظهار داشت: «مدیریت برند اکنون تنها یک کمپین تبلیغاتی نیست؛ بلکه فرآیندی پویا برای نظارت و واکنش به ردپای دیجیتال برند است.» او افزود: «هر نظر مشتری، بررسی آنلاین یا حتی یادداشت داخلی افشاشده می‌تواند فوراً تصویر عمومی یک برند را تغییر دهد.»

آلتون هشدار داد که کسب‌وکارها باید در کنار بهره‌گیری از هوش مصنوعی، به نحوهٔ دریافت آن در اکوسیستم بیرونی نیز توجه داشته باشند: «گفتن اینکه شما قابل اعتماد هستید کافی نیست؛ داده‌ها باید این را نشان دهند، چون اکنون این داده‌ها به‌راحتی قابل دسترسی و تفسیر توسط هوش مصنوعی هستند.»

لیزی اسپراگ (هم‌بنیان‌گذار شرکت روابط‌عمومی Songue PR) نیز خاطرنشان کرد: «در گذشته، اعتماد طی سال‌ها ساخته می‌شد و در چند لحظه از بین می‌رفت؛ اما حالا با هوش مصنوعی، اعتماد می‌تواند در میلی‌ثانیه تأیید یا تخریب شود.»

شفافیت پیش‌دستانه، نه واکنشی


دمیان رولیسون (مدیر تحلیل بازار در شرکت SOCi) پیشنهاد می‌کند برندها بررسی کنند که چگونه در ابزارهای مبتنی بر هوش مصنوعی نمایش داده می‌شوند و منابع مورد استفادهٔ آن‌ها را بشناسند. او تأکید کرد: «نظرات کاربران در گوگل، یلپ یا تریپ‌ادوایزر اکنون اهمیت بیشتری دارد و باید به آن‌ها پاسخ داده شود؛ چه با عذرخواهی، چه با تشکر.»

دو ناگ (مدیرعامل شرکت QueryPal) نیز گفت: «محیط قابل جست‌وجو توسط هوش مصنوعی باعث ایجاد مسئولیت‌پذیری مداوم می‌شود. هر اشتباه اخلاقی، وعدهٔ ناتمام یا اظهارنظر بحث‌برانگیز در بایگانی دیجیتال باقی می‌ماند و در هر لحظه قابل بازیابی است.»

وی توصیه کرد شرکت‌ها از ابزارهای هوش مصنوعی برای رصد دائمی احساسات مشتریان و اجرای ممیزی‌های منظم برند استفاده کنند و آمادگی لازم برای بحران‌های ناشی از اطلاعات نادرست را داشته باشند.

هوش مصنوعی به اقدام نیاز دارد، نه ترس


مایک آلتون معتقد است ظهور هوش مصنوعی به‌عنوان ناظر شهرت برند، جای نگرانی ندارد اما مستلزم اقدام است. برندها باید «اصالت رادیکال» را اتخاذ کنند؛ یعنی هرگونه اختلاف بین وعده‌های تبلیغاتی و واقعیت عملیاتی، توسط هوش مصنوعی برجسته خواهد شد.

همچنین، برداشت اولیهٔ بسیاری از مشتریان ممکن است از خلاصه‌های تولیدشده توسط هوش مصنوعی باشد. آلتون می‌پرسد: «داده‌های جمعی چه داستانی از برند شما می‌گویند؟»

بازگشت به اصول


در نهایت، گرگ استرلینگ (هم‌بنیان‌گذار Near Media) یادآور شد: «کسب‌وکارهایی که محصولات و خدمات با کیفیت ارائه می‌دهند و به‌درستی با مشتریان رفتار می‌کنند، نگران هوش مصنوعی نخواهند بود. برندهای بزرگ، ابتدا با کیفیت و ثبات ساخته می‌شوند، سپس بازاریابی بر آن سوار می‌شود.»

ایده فضایی اشمیت برای حل بحران تامین انرژی برای هوش مصنوعی

اریک اشمیت، مدیرعامل سابق گوگل، در گامی جسورانه به‌دنبال انتقال مراکز داده به مدار زمین است تا بحران انرژی ناشی از رشد شتابان هوش مصنوعی را مدیریت کند؛ حرکتی که می‌تواند چهره آینده فناوری را دگرگون سازد.

اریک اشمیت، مدیرعامل سابق گوگل و یکی از چهره‌های برجسته دنیای فناوری، با تملک شرکت فضایی Relativity Space به دنبال ایفای نقش تازه‌ای در حوزه فضا و انرژی است.

او که اکنون در رأس این شرکت قرار دارد، به‌طور جدی در حال بررسی امکان استقرار دیتاسنترها در مدار زمین است. هدف اصلی او، مقابله با بحران فزاینده انرژی ناشی از گسترش سریع زیرساخت‌های محاسباتی هوش مصنوعی است.

اشمیت در یک جلسه استماع کنگره آمریکا، به نگرانی‌هایی درباره مصرف برق دیتاسنترها اشاره کرد و گفت برخی از آنها ممکن است تا ۱۰ گیگاوات برق نیاز داشته باشند؛ رقمی ده برابر توان یک نیروگاه هسته‌ای متوسط. پیش‌بینی‌ها نشان می‌دهند که تا سال ۲۰۳۰، دیتاسنترها به بیش از ۹۶ گیگاوات برق جدید نیاز خواهند داشت.

خبرنگار حوزه فضا، اریک برگر، این حرکت اشمیت را به نیاز رو به رشد انرژی در حوزه هوش مصنوعی مرتبط دانست؛ فرضیه‌ای که اشمیت نیز به‌طور غیرمستقیم آن را تأیید کرد. او باور دارد که برداشت مستقیم انرژی خورشیدی از فضا می‌تواند راه‌حل پایدار تأمین برق برای این مراکز باشد.

Relativity Space، شرکتی نوپا در حوزه پرتاب‌های فضایی، با تمرکز بر فناوری چاپ سه‌بعدی، در حال توسعه موشک Terran R است، موشکی که قادر است بیش از ۳۳ هزار کیلوگرم محموله را به مدار پایین زمین حمل کند. اشمیت با در اختیار داشتن این شرکت به یکی از معدود بازیگران مستقل صنعت هوافضا دست یافته، در شرایطی که رقبایی چون اسپیس‌ایکس و بلو اوریجین بیش از پیش با سیاست و منافع شخصی بنیان‌گذارانشان گره خورده‌اند.

با این حال، ایده ارسال دیتاسنترها به فضا با چالش‌هایی جدی روبروست؛ از هزینه‌های بالا گرفته تا موانع فنی. اگرچه به‌لحاظ نظری امکان‌پذیر است، هنوز هیچ شرکتی نتوانسته این طرح را به واقعیت تبدیل کند. در عین حال، اگر تب هوش مصنوعی فروکش کند، شاید کل این بحران انرژی نیز به‌سرعت از بین برود.

گوگل با هوش مصنوعی در کروم به جنگ کلاهبرداری‌های اینترنتی می‌رود

گوگل قابلیت جدیدی را به مرورگر کروم افزوده است که با فعال‌سازی هوش مصنوعی، وب‌سایت‌های جعلی را در لحظه کلیک کاربر شناسایی و از بروز تهدیدات احتمالی جلوگیری می‌کند.

تقریباً همه کاربران اینترنت با موقعیتی نگران‌کننده مواجه شده‌اند که در آن، پنجره‌ای ناگهانی ظاهر می‌شود و هشدار می‌دهد که دستگاه به ویروس آلوده شده است؛ سپس کاربر را ترغیب می‌کند برای دریافت پشتیبانی فنی یا نصب نرم‌افزار امنیتی، روی پیوندی خاص کلیک کند. این شیوه، یکی از رایج‌ترین انواع کلاهبرداری‌های اینترنتی است و گوگل تلاش دارد با بهره‌گیری از هوش مصنوعی، مقابله‌ای مؤثرتر با این‌گونه تهدیدات داشته باشد.

به گفته گوگل، از این پس نسخه‌ای از مدل هوش مصنوعی «جمینای» (Gemini) که به صورت داخلی روی دستگاه کاربران اجرا می‌شود، وظیفه شناسایی و هشدار درباره کلاهبرداری‌هایی با عنوان «پشتیبانی فنی» را بر عهده خواهد داشت.

گوگل تأکید کرده است که این اقدام تنها بخشی از مجموعه‌ روش‌هایی است که برای ارتقای امنیت کاربران در مرورگر کروم، موتور جستجوی گوگل و سیستم‌عامل اندروید به کار گرفته خواهد شد.

هوش مصنوعی، ابزاری در برابر موج جدید کلاهبرداری‌ها


این اعلام در شرایطی صورت گرفته است که امروزه مجرمان سایبری نیز با بهره‌گیری از هوش مصنوعی توانایی ساخت محتوای جعلی و فریبنده‌ای را با سرعت و حجم بالا دارند. این موضوع، تعداد حملات اینترنتی با هدف سرقت اطلاعات شخصی یا دارایی‌های مالی را به طور چشمگیری افزایش داده است.


بر اساس آمار جهانی، مصرف‌کنندگان در سراسر دنیا طی سال گذشته بیش از یک تریلیون دلار بر اثر کلاهبرداری‌های اینترنتی متضرر شده‌اند. در نتیجه، شرکت‌هایی مانند گوگل به طور فزاینده‌ای به استفاده از هوش مصنوعی روی آورده‌اند تا بتوانند گامی مؤثر در جهت مقابله با این تهدیدات بردارند.

گرچه گوگل سال‌هاست از فناوری یادگیری ماشینی برای محافظت از خدمات خود بهره می‌برد، اما پیشرفت‌های اخیر در حوزه هوش مصنوعی موجب شده این فناوری با دقت و سرعت بیشتری الگوهای خطرناک را شناسایی کند و از وقوع کلاهبرداری‌ها جلوگیری نماید.

بر اساس اعلام گوگل، در نسخه به‌روزرسانی‌شده «حالت مرور ایمن» در نسخه دسکتاپ مرورگر کروم، مدل هوش مصنوعی داخلی دستگاه می‌تواند بلافاصله پس از کلیک کاربر، صفحات وب را اسکن کرده و تهدیدات احتمالی را شناسایی کند. مشابه نسخه فعلی مرور ایمن، اگر کاربر قصد ورود به وب‌سایتی با ریسک امنیتی بالا را داشته باشد، پیش از باز شدن صفحه، هشدار مناسبی به او نمایش داده خواهد شد.

همچنین، در به‌روزرسانی جدید دیگری، گوگل اعلام کرده است که در صورت شناسایی وب‌سایت‌های مشکوک، کاربران سیستم‌عامل اندروید نیز هشدارهای لازم را از طریق مرورگر کروم دریافت خواهند کرد.

گوگل تنها شرکتی نیست که از هوش مصنوعی برای مقابله با کلاهبرداری‌های دیجیتال بهره می‌برد. شرکت مایکروسافت نیز به تازگی یک ابزار آزمایشی‌ را معرفی کرده که از طریق تحلیل مکالمات تلفنی، تشخیص می‌دهد آیا تماس دریافتی جعلی است یا خیر، و بر اساس آن به کاربر هشدار می‌دهد.

انتشار رایگان Open Computer Agent؛ ابزار جدید هوش مصنوعی Hugging Face برای کنترل رایانه‌ها

این ابزار که Open Computer Agent نام دارد، از طریق وب در دسترس کاربران است و روی یک ماشین مجازی لینوکس اجرا می‌شود؛ ماشینی که به‌صورت پیش‌فرض چندین نرم‌افزار از جمله مرورگر فایرفاکس را در اختیار دارد.

تیم توسعه‌دهنده در شرکت Hugging Face به‌تازگی یک عامل (Agent) هوش مصنوعی رایگان را معرفی کرده که مبتنی بر رایانه و فضای ابری طراحی شده است. البته باید توجه داشت که این عامل هنوز در مراحل ابتدایی قرار دارد؛ سرعت آن پایین است و گاهی در اجرای برخی وظایف دچار خطا می‌شود.

این ابزار که Open Computer Agent نام دارد، از طریق وب در دسترس کاربران است و روی یک ماشین مجازی لینوکس اجرا می‌شود؛ ماشینی که به‌صورت پیش‌فرض چندین نرم‌افزار از جمله مرورگر فایرفاکس را در اختیار دارد.

مشابه با ابزار Operator در OpenAI، کاربران می‌توانند از این عامل بخواهند وظایفی مانند «یافتن دفتر مرکزی Hugging Face در پاریس از طریق گوگل مپ» را انجام دهد. عامل به‌صورت خودکار برنامه‌های لازم را باز می‌کند و مراحل مربوط به اجرای درخواست را پیش می‌برد.

Open Computer Agent در انجام وظایف ساده عملکرد قابل قبولی دارد، اما در اجرای درخواست‌های پیچیده‌تر مانند جستجوی بلیت پرواز، با خطاهایی همراه بود. همچنین این عامل در مواجهه با تست‌های CAPTCHA ناتوان است و نمی‌تواند آن‌ها را پشت سر بگذارد.

نکته دیگر این‌که برای استفاده از این ابزار، کاربر باید مدتی در یک صف مجازی منتظر بماند؛ زمانی که بسته به میزان ترافیک ممکن است بین چند ثانیه تا چند دقیقه متغیر باشد.

هدف اصلی تیم Hugging Face از توسعه این ابزار، ساخت یک عامل قدرتمند برای کنترل کامل رایانه‌ها نبود؛ بلکه آن‌ها قصد داشتند نشان دهند که مدل‌های هوش مصنوعی متن‌باز، به‌مرور زمان قدرتمندتر می‌شوند و اجرای آن‌ها در زیرساخت‌های ابری نیز مقرون‌به‌صرفه‌تر خواهد شد.

ایمریک روچر، یکی از اعضای تیم توسعه عامل‌ها در Hugging Face، در صفحه‌ای در شبکه اجتماعی X نوشت: «با پیشرفت مداوم مدل‌های بینایی، این مدل‌ها قادر خواهند بود کارهای پیچیده‌تری را در قالب عامل‌ها اجرا کنند. برخی از این مدل‌ها قابلیت «پایه‌گذاری داخلی» دارند؛ به این معنا که می‌توانند هر عنصر موجود در تصویر را بر اساس مختصات آن شناسایی کرده و روی هر بخشی از تصویر یا صفحه‌نمایش (مثلاً در یک ماشین مجازی) کلیک کنند.»

با وجود آن‌که این فناوری هنوز به بلوغ کامل نرسیده، اما حوزه عامل‌های هوش مصنوعی (Agentic AI) در حال جذب سرمایه‌گذاری‌های گسترده است. شرکت‌ها نیز در تلاش‌ هستند با بهره‌گیری از این عامل‌ها، بهره‌وری خود را افزایش دهند.

بر اساس نتایج یک نظرسنجی جدید، ۶۵ درصد از شرکت‌ها در حال آزمایش استفاده از عامل‌های هوش مصنوعی هستند. همچنین گزارش مؤسسه Markets and Markets پیش‌بینی می‌کند که ارزش بازار عامل‌های هوش مصنوعی از ۷.۸۴ میلیارد دلار در سال ۲۰۲۵ به ۵۲.۶۲ میلیارد دلار تا سال ۲۰۳۰ افزایش خواهد یافت.

نخستین تراشهٔ نوری جهان، هوش مصنوعی را با سرعت نور آموزش می‌دهد

مهندسان دانشگاه پن نخستین تراشهٔ نوری قابل برنامه‌ریزی را ساختند که می‌تواند شبکه‌های عصبی را تنها با استفاده از نور آموزش دهد و افقی تازه برای هوش مصنوعی بگشاید.

مهندسان دانشگاه پنسیلوانیا موفق به طراحی و ساخت تراشه‌ای نوری شده‌اند که توانایی آموزش شبکه‌های عصبی غیرخطی را تنها با بهره‌گیری از نور دارد؛ دستاوردی که می‌تواند تحولی چشمگیر در افزایش سرعت و کاهش مصرف انرژی در حوزهٔ هوش مصنوعی به همراه داشته باشد.

این تراشهٔ نوآورانه برخلاف تراشه‌های الکترونیکی رایج، محاسبات پیچیده را با بازآرایی و هدایت نور انجام می‌دهد و گامی بزرگ در مسیر توسعهٔ رایانه‌هایی است که به‌طور کامل با نور کار می‌کنند.

گفتنی است تراشه‌های فوتونیک (نوری) به جای الکترون‌ها از پرتوهای نور برای پردازش اطلاعات استفاده می‌کنند. مقالهٔ این پژوهش در نشریهٔ Nature Photonics منتشر شده و نشان می‌دهد که این تراشه چگونه با دستکاری نور، عملیات غیرخطی ضروری برای عملکردهای پیشرفتهٔ هوش مصنوعی را اجرا می‌کند.

لیانگ فنگ (استاد مهندسی مواد و مهندسی سیستم‌های الکتریکی) که نویسندهٔ ارشد این پژوهش است، اظهار می‌دارد: «توابع غیرخطی برای آموزش شبکه‌های عصبی عمیق کاملاً حیاتی هستند. هدف ما این بود که برای نخستین بار این توانایی را در فوتونیک ممکن کنیم.»

گام گمشده در هوش مصنوعی نوری
اغلب سیستم‌های هوش مصنوعی امروزی بر پایهٔ شبکه‌های عصبی عمل می‌کنند؛ الگوریتم‌هایی الهام‌گرفته از ساختار مغز. همان‌طور که نورون‌ها در مغز با هم پیوند دارند و فکر کردن را ممکن می‌سازند، شبکه‌های عصبی نیز با اتصال گره‌های ساده، به هوش مصنوعی امکان انجام وظایف پیچیده را می‌دهند.
در این سامانه‌ها، گره‌ها تنها زمانی فعال می‌شوند که ورودی از آستانه‌ای فراتر رود؛ فرایندی غیرخطی که باعث می‌شود ورودی‌های کوچک، خروجی‌هایی با پیچیدگی بالا تولید کنند.

تیان‌وی وو (پژوهشگر فوق‌دکترا) می‌افزاید: «بدون این رفتار غیرخطی، افزودن لایه‌های بیشتر در شبکهٔ عصبی بی‌فایده است و سامانه به یک عملیات خطی ساده فروکاسته می‌شود که در آن هیچ یادگیری واقعی اتفاق نمی‌افتد.»

در حالی‌که پیش‌تر تیم‌هایی در مهندسی پن تراشه‌های نوری‌ای طراحی کرده بودند که می‌توانستند عملیات ریاضی خطی را انجام دهند، هیچ‌یک موفق نشده بودند توابع غیرخطی را صرفاً با نور پیاده‌سازی کنند—تا اکنون.

وی تأکید می‌کند: «بدون توابع غیرخطی، تراشه‌های فوتونیک قادر به آموزش شبکه‌های عمیق یا انجام وظایف هوشمندانهٔ واقعی نیستند.»

بازطراحی نور با نور
موفقیت این گروه با استفاده از ماده‌ای نیمه‌هادی آغاز شد که به نور واکنش نشان می‌دهد. وقتی پرتو «سیگنال» (حاوی دادهٔ ورودی) از این ماده عبور می‌کند، پرتو دوم موسوم به «پمپ» از بالا بر آن می‌تابد و رفتار ماده را تغییر می‌دهد.

با تنظیم شکل و شدت پرتو پمپ، پژوهشگران توانستند تعیین کنند که نور سیگنال چگونه جذب، منتقل یا تقویت شود. این روش در واقع تراشه را برای اجرای توابع غیرخطی مختلف برنامه‌ریزی می‌کند.

فنگ می‌گوید: «ما ساختار تراشه را تغییر نمی‌دهیم. بلکه از خود نور برای ترسیم الگوهایی درون ماده استفاده می‌کنیم که مسیر حرکت نور را تغییر می‌دهد.»

«چت‌جی‌پی‌تی» برای کاربران ایرانی بدون فیلترشکن باز شد

گزارش‌های برخی کاربران ایرانی نشان می‌دهند که «چت‌جی‌پی‌تی» در حال حاضر بدون نیاز به فیلترشکن کار می‌کند.

گزارش‌های برخی کاربران ایرانی در رسانه‌های اجتماعی حاکی از این است که چت‌بات «چت‌جی‌پی‌تی»(ChatGPT) شرکت «اوپن‌ای‌آی»(OpenAI) بدون نیاز به فیلترشکن کار می‌کند. این درحالی است که اوپن‌ای‌آی پیش‌تر امکان دسترسی برخی کشورها از جمله ایران را به چت‌بات خود مسدود کرده بود.

چت‌جی‌پی‌تی به دنبال پرسشی مبنی بر رفع محدودیت دسترسی کاربران ایرانی، این موضوع را رد کرد.
در ادامه پاسخ چت‌جی‌پی‌تی را می‌خوانیم:

«چت‌جی‌پی‌تی رسما برای کاربران ایرانی در دسترس نیست. اوپن‌ای‌آی به منظور رعایت قوانین تحریم‌ آمریکا و مقررات کنترل صادرات همچنان دسترسی به خدمات خود را در چندین کشور از جمله ایران محدود می‌کند. این محدودیت‌ها از طریق موقعیت جغرافیایی مبتنی بر IP و تأیید شماره تلفن هنگام ثبت حساب کاربری اعمال می‌شوند و ایجاد یا نگهداری حساب‌ها را برای کاربران ایرانی حتی هنگام استفاده از فیلترشکن نیز چالش برانگیز می‌کنند.
فهرست کشورهای پشتیبانی‌شده توسط اوپن‌ای‌آی شامل ایران نمی‌شود و هیچ اطلاعیه رسمی مبنی بر تغییر در این سیاست منتشر نشده است. بنابراین، کاربران ایرانی همچنان با محدودیت‌های دسترسی به سرویس‌های چت‌جی‌پی‌تی روبه‌رو هستند.»

هشدار بنیانگذار اینستاگرام: چت‌بات‌های هوش مصنوعی کاربران را فریب می‌دهند!

هشدار بنیان‌گذار اینستاگرام: چت‌بات‌های هوش مصنوعی به جای کمک، به ابزاری برای افزایش تعامل تبدیل شده‌اند

کوین سیستروم، یکی از مؤسسان اینستاگرام، معتقد است شرکت‌های فعال در حوزه هوش مصنوعی به جای ارائه راهکارهای واقعاً کاربردی، بیش از حد بر افزایش تعامل با کاربران از طریق پرسش‌های مکرر تمرکز کرده‌اند.

به گفته سیستروم، این روش‌ها «نیروهایی مخرب» هستند و قابل‌قیاس با تکنیک‌های تهاجمی هستند که شبکه‌های اجتماعی برای گسترش کاربری خود به کار می‌گیرند.

وی در سخنرانی اخیر خود در استارتاپ‌گرایند تأکید کرد: «می‌توان مشاهده کرد که برخی از این شرکت‌ها، همان مسیر افزایش تعامل را دنبال می‌کنند که پیش‌تر شرکت‌های حوزه مصرف‌کننده طی کرده‌اند. هر بار که سؤالی می‌پرسم، در پایان پاسخ، سوال کوچک دیگری مطرح می‌شود تا ببیند آیا می‌تواند گفت‌وگو را ادامه دهد یا خیر.»

این اظهارات در شرایطی مطرح می‌شود که ChatGPT نیز به دلیل رفتار بیش از حد محافظه‌کارانه و پرهیز از پاسخ‌های مستقیم مورد انتقاد قرار گرفته است. اوپن‌ای‌آی در این باره عذرخواهی کرده و «بازخوردهای کوتاه‌مدت کاربران» را عامل این رویکرد دانسته است.
سیستروم معتقد است این تعامل افراطی یک اشکال تصادفی نیست، بلکه یک ویژگی عمدی است که برای بهبود معیارهایی مانند «زمان سپری‌شده در پلتفرم» و «کاربران فعال روزانه» طراحی شده است. او تأکید کرد شرکت‌های هوش مصنوعی باید به جای تغییر معیارهای موفقیت، تمام تمرکز خود را بر ارائه پاسخ‌های باکیفیت و کارآمد بگذارند.

با این حال، سیستروم از نام‌بردن از شرکت‌های خاص خودداری کرد و تاکنون به درخواست‌های تکمیلی برای اظهارنظر پاسخ نداده است.

در واکنش به این انتقادها، اوپن‌ای‌آی به راهنمای کاربری خود اشاره کرد که در آن توضیح داده شده مدل‌های هوش مصنوعی این شرکت «همیشه تمام اطلاعات لازم» را در اختیار ندارند و گاهی برای ارائه پاسخ دقیق‌تر، نیاز به جزئیات بیشتر از سوی کاربر دارند.

با این حال، در همان راهنما تأکید شده که مگر در مواردی که سوالات بسیار مبهم یا پیچیده باشند، هوش مصنوعی باید تمام تلاش خود را برای پاسخگویی انجام دهد و در صورت نیاز، از کاربر بخواهد اطلاعات بیشتری ارائه کند تا پاسخ مفیدتری دریافت کند.

هوش مصنوعی جمینای Pokémon Blue را شکست داد!

هوش مصنوعی گوگل تاریخ ساز شد! جمینای با شکست دادن بازی کلاسیک "پوکمون آبی" پس از ۲۹ سال، توانایی خود در انجام وظایف پیچیده را ثابت کرد. هرچند با کمک سیستمهای عامل انسانی، این دستاورد گامی بزرگ در پیشرفت هوش مصنوعی محسوب میشود. حالا سوال اینجاست: آیا روزی هوش مصنوعی بدون کمک انسان، استاد تمام بازیها خواهد شد؟

به نظر می‌رسد پیشرفته‌ترین مدل هوش مصنوعی گوگل، جمینای، به یک دستاورد چشمگیر دست یافته است: پیروزی در یک بازی کلاسیک ۲۹ ساله.

دیشب، ساندار پیچای، مدیرعامل گوگل، با انتشار پستی در پلتفرم ایکس (توییتر سابق) این موفقیت را جشن گرفت: «چه پایان خارق‌العاده‌ای! Gemini 2.5 Pro همین حالا بازی Pokémon Blue رو تموم کرد!»

پشت صحنه این رویداد


این پروژه تحت عنوان «Gemini Plays Pokémon» توسط یک مهندس نرم‌افزار مستقل به نام «جوئل زد» اجرا شده است. اگرچه او رسماً وابسته به گوگل نیست، اما این ابتکار مورد استقبال تیم‌های هوش مصنوعی گوگل قرار گرفته است.

پیش از این، لوگان کیلپاتریک، مدیر محصول استودیوی هوش مصنوعی گوگل، در پستی اشاره کرده بود که جمینای «پیشرفت چشمگیری در بازی پوکمون داشته» و حتی موفق به کسب پنج نشان شده، در حالی که مدل‌های قبلی تنها سه نشان دریافت کرده بودند. این موضوع حتی باعث شد پیچای با طنز بگوید: «در حال توسعه یک API مخصوص هوش مصنوعی پوکمون هستیم!»

چرا پوکمون؟


در ماه فوریه، شرکت آنتروپیک (Anthropic) از پیشرفت مدل هوش مصنوعی کلود (Claude) در بازی «پوکمون قرمز» خبر داد و توضیح داد که این مدل با «تفکر استراتژیک و آموزش پیشرفته» توانسته در انجام وظایف غیرمنتظره، مانند بازی‌های کلاسیک، عملکرد بهتری داشته باشد.
(هر دو بازی «پوکمون قرمز» و «آبی» نسخه‌های مختلفی از یک عنوان محبوب گیم‌بوی هستند که اولین بار در سال ۱۹۹۶ منتشر شدند.)

حتی یک کانال توییچ به نام «Claude Plays Pokémon» وجود دارد که جوئل زد از آن به عنوان منبع الهام خود یاد کرده است.

آیا جمینای واقعاً برتر است؟


با وجود پیشرفت‌های کلود، به نظر نمی‌رسد که این مدل هنوز موفق به اتمام کامل بازی شده باشد. اما آیا این به معنای برتری عینی جمینای است؟ جوئل زد به بینندگان هشدار داد:
«لطفاً این رو معیاری برای مهارت بازیکنان حرفه‌ای پوکمون در نظر نگیرید. مقایسه مستقیم بین جمینای و کلود منصفانه نیست، چون این مدل‌ها ابزارها و داده‌های متفاوتی دریافت می‌کنند.»


نقش کمک‌های خارجی


هر دو مدل هوش مصنوعی برای انجام بازی به حمایت انسان‌ها نیاز داشتند. در این پروژه، یک سیستم عامل (agent framework) تصاویر بازی را همراه با اطلاعات تکمیلی به مدل ارائه می‌داد تا جمینای بتواند تصمیم‌گیری کند و دستورات مناسب را برای فشار دادن دکمه‌های بازی صادر نماید.

جوئل زد تأکید کرد که برخی مداخلات توسعه‌دهنده نیز برای کمک به جمینای انجام شده، اما این اقدامات «تقلب» محسوب نمی‌شوند:
«مداخلات من باعث بهبود توانایی‌های کلی تصمیم‌گیری و استدلال جمینای شد. من راهنمای قدم‌به‌قدم یا نکات خاصی برای چالش‌های بازی ارائه ندادم. تنها در یک مورد، به جمینای یادآوری کردم که برای گرفتن کلید بالابر باید دو بار با یکی از شخصیت‌های بازی صحبت کند—که این یک باگ شناخته‌شده در نسخه اصلی بود و بعداً در Pokémon Yellow اصلاح شد.»

او همچنین افزود که «Gemini Plays Pokémon» هنوز در حال توسعه است و چارچوب آن به‌مرور بهبود می‌یابد.

نتیجه‌گیری:


این دستاورد نشان می‌دهد که هوش مصنوعی گوگل در حال پیشرفت در انجام وظایف پیچیده و غیرمعمول است، هرچند که هنوز به کمک انسان نیاز دارد. آیا در آینده شاهد هوش مصنوعی‌های کاملاً مستقل در بازی‌های ویدیویی خواهیم بود؟ زمان پاسخ این سؤال را مشخص خواهد کرد.

هوش مصنوعی متا با صدای شما صحبت می‌کند و از رفتار شما در فیس‌بوک یاد می‌گیرد

متا با معرفی اپلیکیشن جدید Meta AI وارد رقابت جدی‌تری با ChatGPT و دیگر چت‌بات‌های هوش مصنوعی شده؛ اپی که علاوه بر گفت‌وگوی صوتی و متنی، ویژگی‌های اجتماعی و شخصی‌سازی مبتنی بر داده‌های فیسبوک و اینستاگرام را نیز ارائه می‌دهد.

متا نخستین اپلیکیشن مستقل هوش مصنوعی خود را برای رقابت با ChatGPT، جمینای و کلاود معرفی کرده است.

این اپ که با نام Meta AI شناخته می‌شود، ویژگی‌هایی مشابه دیگر چت‌بات‌های چندحالته دارد، از جمله گفت‌وگوی متنی و صوتی، دسترسی زنده به وب و توانایی تولید و ویرایش تصویر. اما تفاوت اصلی آن، اضافه شدن یک بخش اجتماعی به نام Discover Feed است که کاربران را قادر می‌سازد تعاملات خود با هوش مصنوعی را به اشتراک بگذارند و از ایده‌های دیگران استفاده یا آن‌ها را بازآفرینی کنند.

این اپلیکیشن از اطلاعات موجود در پروفایل کاربر در فیس‌بوک و اینستاگرام برای شخصی‌سازی پاسخ‌ها استفاده می‌کند. به‌ویژه اگر حساب‌های فیس‌بوک و اینستاگرام خود را به حساب Meta AI متصل کنید، تجربه‌ای شخصی‌تر خواهید داشت. البته، کاربر می‌تواند در تنظیمات حریم خصوصی خود این ارتباط داده‌ها را مدیریت یا غیرفعال کند.

ویژگی «گفت‌وگوی زنده» در این اپ برای کاربران ایالات متحده، کانادا، استرالیا و نیوزیلند فعال شده است. این قابلیت مشابه ویژگی‌هایی در ChatGPT و جمینای است و تجربه‌ای طبیعی‌تر از گفت‌وگو با هوش مصنوعی فراهم می‌کند. البته متا آن را فعلاً نسخه‌ی نمایشی معرفی کرده و دسترسی زنده به وب را در این حالت ارائه نمی‌دهد.

نسخه‌ وب Meta AI نیز بسیاری از قابلیت‌های اپ را شامل می‌شود، از جمله تعامل صوتی و Discover Feed. همچنین در برخی کشورها، امکان آزمایش ویرایشگر پیشرفته‌ی اسناد فراهم شده که تولید محتوای متنی و تصویری و خروجی گرفتن به‌صورت PDF را ممکن می‌سازد.

یکی دیگر از نکات مهم، ادغام این اپ با برنامه‌ی Meta View است که مخصوص عینک‌های هوشمند ری‌بن ساخته شده است. کاربران می‌توانند مکالمه‌ای را با عینک آغاز و سپس ادامه‌ی آن را در اپ یا وب مشاهده کنند. مدیریت دستگاه‌ها نیز از طریق تب Devices در اپ امکان‌پذیر شده است.

هشدار کارشناسان نسبت به اعتماد صددرصدی به نتایج هوش مصنوعی

یک بررسی جدید نشان می‌دهد که تنها درصد کمی از کاربران، درستی نتایج تولیدشده توسط هوش مصنوعی مانند چت‌جی‌پی‌تی، جمنای و کوپایلوت را بررسی می‌کنند. کارشناسان درباره خطرات احتمالی اعتماد به هوش مصنوعی هشدار می‌دهند.

دانشمندان نسبت به اعتماد صددرصدی کاربران به درستی نتایج هوش مصنوعی هشدار دادند. یک بررسی جدید نشان می‌دهد که تنها درصد کمی از کاربران، درستی نتایج تولیدشده توسط چت‌بات‌های هوش مصنوعی مانند چت‌جی‌پی‌تی اوپن‌ای‌آی، جمنای گوگل و کوپایلوت مایکروسافت را بررسی می‌کنند.

به گزارش ایتنا و به نقل از دویچه وله، بر اساس این بررسی، تنها ۲۷ درصد از شرکت‌کنندگان در یک نظرسنجی در آلمان اعلام کرده‌اند که متون، تصاویر یا ترجمه‌های تولیدشده توسط هوش مصنوعی را بررسی می‌کنند.

تحلیل بین‌المللی شرکت حسابرسی و مشاوره‌ای EY درباره موضوع هوش مصنوعی با بیان این که میانگین جهانی در این زمینه ۳۱ درصد بوده است می‌گوید بیشترین تمایل به بررسی صحت نتایج هوش مصنوعی در کره جنوبی (۴۲ درصد) و سپس در چین و هند (هر یک ۴۰ درصد) گزارش شده است.

کاربران در فرانسه و سوئد، حتی کمتر از آلمان نتایج تولیدشده توسط هوش مصنوعی را بررسی می‌کنند و در این کشورها تنها ۲۳ درصد از افراد، نتایج تولیدی هوش مصنوعی را راستی‌آزمایی می‌کنند.

این نظرسنجی بین دسامبر ۲۰۲۴ تا فوریه ۲۰۲۵ انجام شده و بیش از ۱۵ هزار نفر در ۱۵ کشور مورد پرسش قرار گرفته‌اند.

هشدار کارشناسان درباره اعتماد بیش‌ازحد به نتایج هوش مصنوعی
در همین راستا یکی از کارشناسان شرکت مشاوره‌ایEY ضمن هشدار نسبت به اعتماد کورکورانه به این فناوری می‌گوید: «شمار کاربران هوش مصنوعی به‌ویژه در حوزه تولید متن و تصویر به‌سرعت افزایش یافته است. افراد بیشتری در زندگی شغلی و شخصی خود هوش مصنوعی را به‌عنوان ابزاری مفید تجربه می کنند.

او می‌افزاید: «با این حال، به‌کارگیری هوش مصنوعی، نیازمند آموزش است، در غیر این صورت این فناوری می‌تواند خطرآفرین باشد. چراکه نتایج تولیدشده توسط هوش مصنوعی، اغلب خوب، اما به‌هیچ‌وجه بی‌نقص نیستند. در بیشتر موارد، وجود یک نهاد انسانی برای کنترل لازم است.»

به گفته پژوهشگران، این نظرسنجی هشدارآمیز است و نشان می‌دهد که کاربران، بیش‌ازحد بی‌احتیاط با این فناوری برخورد می‌کنند و این موضوع می‌تواند به‌ویژه در محیط‌های کاری، هم برای کاربران و هم برای کارفرمایان‌ پیامدهای جدی داشته باشد.

بررسی‌های پیشین دانشمندان حاکی از آن بود که امکان بروز "توهم و تولید محتوای نادرست" در مدل‌های هوش مصنوعی استدلالی بسیار زیاد و رایج است.

به گفته دانشمندان، بسیاری از مدل‌های هوش مصنوعی اصطلاحا به نوعی "توهم" دچار می‌شوند یا محتوا را سر خود و بدون توجه به بافت پرسش از خودشان می‌سازند.

پیش از این گزارش‌هایی در شبکه‌های اجتماعی منتشر شده بود که از پاسخ‌های عجیب هوش مصنوعی به سوالات کاربران حکایت داشت.

برای نمونه مواردی ازجمله پیشنهاد ریختن چسب بر روی پیتزا و نیز پیشنهاد خوردن یک تکه سنگ در روز از سوی هوش مصنوعی مطرح شده بود که در نهایت سبب شد گوگل، جستجوهای هوش مصنوعی برای تعدادی از موضوعات خاص را غیرفعال کند تا کاربران با پیشنهادهای عجیب بیشتری روبرو نشوند.

در موضوع پیشنهاد خوردن یک سنگ در هر روز که سر و صدای زیادی به پا کرد یک کاربر ردیت از AI Overviews گوگل پرسیده بود که "در روز چند تکه‌سنگ باید بخورم؟" و هوش مصنوعی AI Overviews در پاسخ گفته بود: «بر اساس تحقیقات دانشمندان دانشگاه کالیفرنیا برکلی، باید روزانه دست‌کم یک تکه سنگ بخورید.»

در یک مورد دیگر یکی از کاربران شبکه اجتماعی اکس (توییتر سابق) از هوش مصنوعی خواسته بود یک پستاندار با بیشترین استخوان را معرفی کند و گوگل در پاسخ به این پرسش، مار پیتون را معرفی کرده بود که پستاندار نیست.

هوش مصنوعی در خدمت جاسوسی و خرابکاری دیجیتال چین علیه آمریکا

اف‌بی‌آی نسبت به استفاده فزاینده چین از هوش مصنوعی در حملات سایبری علیه زیرساخت‌های حیاتی آمریکا هشدار داده است؛ حملاتی که با بهره‌گیری از AI پیچیده‌تر، سریع‌تر و پنهان‌کارانه‌تر از گذشته اجرا می‌شوند و امنیت ملی ایالات متحده را تهدید می‌کنند.

اف‌بی‌آی هشدار داده است که چین از هوش مصنوعی برای افزایش پیچیدگی، سرعت و تأثیر حملات سایبری خود علیه زیرساخت‌های حیاتی ایالات متحده استفاده می‌کند.

سینتیا کایزر، معاون مدیر بخش سایبری اف‌بی‌آی، در گفت‌وگو با The Register تأکید کرد که گروه‌های هکری وابسته به دولت چین از AI در تمام مراحل عملیات نفوذ خود بهره می‌برند؛ از شناسایی اولیه تا پیشروی در سیستم‌های هدف.

بر اساس این گزارش، بخش‌هایی مانند مخابرات، انرژی، آب و دولت از مهم‌ترین اهداف این حملات هستند. گروه‌های Volt Typhoon و Salt Typhoon از جمله مهاجمان شناخته‌شده‌ای هستند که طی ماه‌های گذشته با استفاده از تجهیزات قدیمی و آسیب‌پذیر، به سیستم‌های حیاتی نفوذ کرده‌اند. Volt Typhoon از صدها روتر منسوخ برای ایجاد یک بات‌نت استفاده کرد و Salt Typhoon نیز توانست به شبکه‌های چند شرکت مخابراتی و دولتی ایالات متحده نفوذ کند.

کایزر تصریح کرد که اکثر این حملات از طریق آسیب‌پذیری‌های شناخته‌شده و وصله‌نشده انجام می‌شوند. مهاجمان پس از ورود، به‌صورت پنهانی درون شبکه‌ها حرکت می‌کنند و گاه از بخش تجاری به فناوری عملیاتی (OT) انتقال می‌یابند. استفاده از هوش مصنوعی در این مرحله کمک می‌کند تا ساختار شبکه شناسایی و مسیر حمله بعدی به‌سرعت تعیین شود.

علاوه بر نفوذ دیجیتال، هوش مصنوعی اکنون برای اجرای حملات فریبکارانه و کلاهبرداری نیز مورد استفاده قرار می‌گیرد. طبق گفته کایزر، استفاده از فناوری دیپ‌فیک برای جعل هویت مدیران و ارسال درخواست‌های مالی تبدیل به یکی از روش‌های متداول مجرمان شده است.

با وجود کاهش منابع فدرال، اف‌بی‌آی اعلام کرده که رویکردش در مقابله با تهدیدات سایبری تغییر نکرده و همچنان فعالانه با حملات دولتی و مجرمانه مقابله می‌کند. از نظر کایزر، راهکارهایی چون احراز هویت چندمرحله‌ای (MFA) ـ حتی از نوع سنتی با کلمات رمزی ـ در کاهش ریسک بسیار مؤثر هستند.

امشب اولین کنفرانس توسعه دهندگان هوش مصنوعی «متا» برگزار می‌شود

اولین کنفرانس توسعه دهندگان هوش مصنوعی شرکت «متا» موسوم به «LlamaCon 2025» امشب برگزار می‌شود.

این کنفرانس که با الهام از خانواده مدل‌های هوش مصنوعی «لاما»(Llama) به نام «لاماکان»(LlamaCon) شناخته می‌شود، امشب، سه‌شنبه 9 اردیبهشت(۲۹ آوریل) برگزار خواهد شد.

پس از چند سال که مدل هوش مصنوعی منبع‌باز لاما(Llama) تنها بخشی از کنفرانس‌های کانکت(Connect) شرکت «متا» بوده است، اکنون این شرکت می‌خواهد از یک کنفرانس توسعه‌دهندگان کاملاً مبتنی بر هوش مصنوعی میزبانی کند.

گفتنی است که این رویداد، کاملا مجازی است و همگان می‌توانند آن را به صورت زنده در صفحه Meta for Developers در فیسبوک تماشا کنند.

«متا» می‌گوید که قصد دارد جدیدترین پیشرفت‌های خود در هوش مصنوعی منبع‌باز را برای کمک به توسعه‌دهندگان به منظور ساخت اپلیکیشن‌ها و محصولات شگفت‌انگیز معرفی کند.

شرکت «متا» چندین سال پیش رویکرد منبع‌باز ​​را برای توسعه فناوری‌های هوش مصنوعی در تلاش برای تقویت اکوسیستمی از اپلیکیشن‌ها و پلتفرم‌ها پذیرفت. هنوز فاش نشده است که چه تعداد برنامه یا سرویس روی آن ساخته شده، اما پیشتر اشاره شده بود که شرکت‌های «گلدمن ساکس»(Goldman Sachs)، «نامورا هولدینگز»(Nomura Holdings)، «ای‌تی‌اندتی»(AT&T)، «دوردش»(DoorDash) و «اکسنچر»(Accenture) از «لاما» استفاده می‌کنند.

«متا» ادعا می‌کند که مدل هوش مصنوعی «لاما» صدها میلیون بار دانلود شده است و حداقل ۲۵ شرکت میزبان آن هستند. از جمله این شرکت‌ها می‌توان به «انویدیا»(Nvidia)، «دیتابریکس»(Databricks)، دل»(Dell) و «اسنوفلیک»(Snowflake) اشاره کرد. برخی از این شرکت‌ها تجهیزات اضافی ساخته‌اند که به مدل‌ها امکان می‌دهد تا به داده‌های اختصاصی رجوع کنند و با تأخیر کمتر اجرا شوند.

کنفرانس LlamaCon امشب از ساعت 20:30 به وقت ایران با سخنرانی «کریس کاکس»( Chris Cox)، مدیر ارشد محصولات متا، مانوهار پالوری(Manohar Paluri)، معاون رئیس هوش مصنوعی متا و آنجلا فن(Angela Fan) دانشمند پژوهشگر آغاز می‌شود.

قرار است در این سخنرانی‌ها، تحولات جامعه هوش مصنوعی منبع‌باز این شرکت و جدیدترین مجموعه مدل‌ها و ابزارهای لاما، پوشش داده شود و نگاهی اجمالی به ویژگی‌های هوش مصنوعی که هنوز منتشر نشده است، ارائه شود.

سخنرانی اصلی سپس قرار است از ساعت 21:15 به وقت ایران بین مارک زاکربرگ، مدیرعامل متا و علی قدسی، مدیر عامل شرکت «دیتابریکس» در مورد ساخت برنامه‌های کاربردی مبتنی بر هوش مصنوعی ایراد شود.

سپس چند ساعت بعد در ساعت 02:30 بامداد چهارشنبه، گپ و گفتی درباره جدیدترین روندهای هوش مصنوعی بین زاکربرگ و ساتیا نادلا، مدیرعامل مایکروسافت دنبال می‌شود.

به نظر نمی‌رسد که از هیچ یک از این مکالمات، اخبار فوری استخراج شود، اما مایکروسافت و متا قبلاً با یکدیگر همکاری کرده‌اند، بنابراین هر چیزی ممکن است.

شرکت متا به طور سنتی کنفرانسی برای راه‌اندازی به‌روزرسانی‌های هوش مصنوعی متا یا مدل لاما برگزار نکرده است. این شرکت خانواده مدل‌های جدید Llama 4 خود را که در درک تصویر و تجزیه اسناد، عالی هستند، اوایل آوریل معرفی کرد و هنوز مشخص نیست که این شرکت چه مدل‌ها یا محصولات جدیدی را برای کنفرانس امشب آماده کرده است.

هوش مصنوعی OpenAI: پیشرفت‌های خیره‌کننده همراه با رفتارهای غیرمنتظره

از دید متخصصین، توسعه هوش مصنوعی، بیشتر شبیه بزرگ کردن یک بچه است تا ساختن یک پل!

بررسی فنی جدیدترین مدل‌های هوش مصنوعی ارائه شده از سوی OpenAI حاکی از آن است که که این سیستم‌ها هر چند دارای قابلیت‌های شگفتی هستند، با این وجود گاه رفتارهای غیرقابل پیش‌بینی از خود نشان می‌دهند.

به نظر کارشناسان، این موضوع لزوم توجه بیشتر به چالش‌های پیش روی این فناوری را نشان می‌دهد.

مدل نمونه: بررسی جزئیات عملکرد مدل o3


شرکت OpenAI به‌تازگی جدیدترین مدل‌های خود یعنی o3 و o4-mini را با عنوان هوشمندترین مدل‌های خود تا به امروز معرفی کرده است، و همراه با آزمایش‌کنندگان اولیه، o3 را به دلیل قدرت استدلال کلی آن و همچنین توانایی فوق‌العاده در پاسخگویی به درخواست کاربر با برنامه‌ریزی، شایان تحسین دانستند.

به نظر کارشناسان، مدل‌های مزبور دارای عملکرد شایان توجهی در برخی زمینه‌ها هستند، از جمله:
- توانایی استدلال چندمرحله‌ای و حل برخی مسائل پیچیده
- توان انجام جست‌وجوهای خودکار در اینترنت بدون نیاز به نظارت کاربر
- قابلیت پردازش حرفه‌ای تصویر(از جمله تشخیص محل عکس‌ها)

با این وجود، از دید منتقدان، مدل‌ o3 دارای مشکلاتی جدی است،‌ از جمله نرخ خطای بالاتر در مقایسه با نسخه‌های پیشین، دقت کم در ارائه تحلیل‌های مالی(حدود 48 درصد)، داشتن هزینه قابل توجه در ارائه هر پاسخ(حدود 3.69 دلار).

نظرات کارشناسان پیرامون این نقاط ضعف


تایلر کاون، اقتصاددان مشهور در این زمینه اعتقاد دارد که این مدل‌ها نشانه‌هایی از هوش مصنوعی عمومی (AGI) را نمایش می‌دهند. در مقابل، اتان مولیک این رفتار را "مرز ناهموار" توصیف می‌کند که در آن سیستم در برخی حوزه‌ها فوق‌بشری عمل می‌کند، اما در موارد دیگر دچار خطاهای فاحش می‌شود.

هوش مصنوعی: پروش یک بچه، یا ساختن یک ساختمان؟


از دید متخصصین، سازندگان و برنامه‌نویسان نرم‌افزار سال‌ها کوشیده‌اند تا محصول خود را قابل اطمینان‌تر، مقیاس‌پذیرتر و انعطاف‌پذیرتر کنند و در این مسیر، پیشرفت‌های زیادی کسب کرده‌اند.
اما در نقطه مقابل، ساختن هوش مصنوعی، جدیدتر و عجیب‌تر است و به نظر می‌رسد هنوز آنچنان درک نشده که بتوان آن را به یک رشته قابل پیش‌بینی تبدیل کرد.

از دید متخصصین، توسعه هوش مصنوعی بیشتر شبیه پرورش یک موجودی زنده است در مقایسه با ساخت یک محصول قابل پیش‌بینی، به عبارت دیگر این روند بیشتر شبیه بزرگ کردن یک بچه است تا ساختن یک پل!

از دید صاحبنظران، این ویژگی هم فرصت‌های بی‌سابقه‌ای ایجاد می‌کند و هم چالش‌های جدیدی برای استفاده عملی از این فناوری به وجود می‌آورد.

OpenAI تأکید دارد که برای درک کامل رفتار این مدل‌ها به تحقیقات بیشتری نیاز است و این مسیر توسعه هنوز در مراحل اولیه خود قرار دارد.

ChatGPT سرطان پنهان در بدن یک زن را تشخیص داد

به نظر می‌رسد ChatGPT با کشف یک سرطان پنهان در یک زن آمریکایی، جان وی را نجات داده است.

ربات هوش مصنوعی «چت‌جی‌پی‌تی»(ChatGPT) می‌تواند کدنویسی کند، ایمیل‌های حرفه‌ای بنویسد، حتی برای تعطیلات برنامه‌ریزی کند، اما آیا واقعاً می‌تواند سرطان را تشخیص دهد؟ باور کنید یا نه، به نظر می‌تواند.

یک بانوی ۴۰ ساله که علائم گیج‌کننده او بارها توسط پزشکان بررسی شده است، ادعا می‌کند که بینش‌های هوش مصنوعی «چت‌جی‌پی‌تی» منجر به تشخیصی نجات دهنده برای او شده است.

لورن بنون(Lauren Bannon)، ساکن ایالات متحده و مادر دو فرزند، در فوریه ۲۰۲۴ متوجه مشکل در خم کردن انگشتان خود، به خصوص در صبح‌ها و عصرها شد.

با وجود منفی بودن آزمایش برای ابتلای احتمالی به بیماری «آرتریت روماتوئید»، پزشکان پس از چهار ماه در نهایت تشخیص دادند که او به این بیماری مبتلاست.

با این حال، این بانوی ۴۰ ساله که صاحب یک شرکت بازاریابی است، با دردهای طاقت‌فرسای معده و کاهش چشمگیر وزن در عرض یک ماه مواجه شد که پزشکان آن را به ریفلاکس اسید معده نسبت دادند.

نقش هوش مصنوعی در تشخیص پزشکی

بنون ناراضی و ناامید از پاسخ پزشکان، به چت‌بات هوش مصنوعی توسعه یافته توسط شرکت اوپن‌ای‌آی(OpenAI) برای تشخیص احتمالی روی آورد.

بنون از ChatGPT در مورد شرایطی که شبیه به «آرتریت روماتوئید» است، سؤال کرد و این ربات پیشنهاد کرد که او ممکن است به بیماری هاشیموتو(Hashimoto) مبتلا باشد و به او توصیه کرد که از پزشکش بخواهد سطح آنتی‌بادی پراکسیداز تیروئید(TPO) او را بررسی کند.

بنون می‌گوید: من نیاز داشتم بفهمم چه اتفاقی برایم در حال وقوع است. فقط احساس ناامیدی می‌کردم، چرا که پاسخ‌هایی را که لازم داشتم، دریافت نمی‌کردم.

بیماری هاشیموتو یک بیماری خودایمنی است که در آن سیستم ایمنی بدن به غده تیروئید حمله می‌کند و باعث التهاب و در نهایت کاهش عملکرد آن می‌شود.

سرانجام بنون تصمیم گرفت که به تشخیص هوش مصنوعی نیز اهمیت دهد و در سپتامبر ۲۰۲۴ برای آزمایش رفت و در کمال تعجب با صحیح بودن تشخیص هوش مصنوعی مواجه شد.

بنون با وجود عدم سابقه خانوادگی در ابتلا به بیماری هاشیموتو، از ابتلا به این بیماری شگفت‌زده شد. این باعث شد که پزشکان یک سونوگرافی تیروئید انجام دهند که در آن دو توده کوچک در گردن او مشاهده شد و در نهایت در اکتبر ۲۰۲۴، این توده‌ها به عنوان توده‌های سرطانی تشخیص داده شدند.

بنون معتقد است که بدون کمک ChatGPT هرگز این سرطان پنهان را کشف نمی‌کرد، زیرا علائم معمول بیماری هاشیموتو را نداشت.

وی می‌گوید: از پزشکان ناامید شده بودم. تقریباً مثل این بود که آنها فقط سعی می‌کردند برای هر چیزی دارو بدهند تا شما را ببرند و بیاورند.

این زن ۴۰ ساله برای برداشتن تیروئید و دو غدد لنفاوی از گردنش در ژانویه ۲۰۲۵ تحت عمل جراحی قرار گرفت.

وی می‌گوید: اگر به ChatGPT نگاه نمی‌کردم، فقط داروی «آرتریت روماتوئید» را مصرف می‌کردم و سرطان از گردن من به همه جای دیگر سرایت می‌کرد.

وی افزود: هوش مصنوعی، زندگی من را نجات داد. من هرگز بدون ChatGPT این را کشف نمی‌کردم.

با این حال، کارشناسان هشدار دادند که هوش مصنوعی نباید جایگزین تخصص پزشکی انسانی شود. در حالی که این ابزارها می‌توانند کمک کنند، هشدار دهند و آسایش بیاورند، اما نمی‌توانند مشکل همه بیماران را تشخیص دهند یا آنها را معاینه یا درمان کنند.

متخصصان تاکید می‌کنند که هوش مصنوعی می‌تواند نتایج مراقبت‌های بهداشتی را بهبود بخشد، اما تنها تکیه بر هوش مصنوعی می‌تواند خطراتی ایجاد کند.

دکتر هاروی کاسترو(Harvey Castro)، پزشک متخصص اورژانس و سخنران در زمینه هوش مصنوعی می‌گوید: هنگامی که هوش مصنوعی، مسئولانه استفاده شود، می‌تواند نتایج مراقبت‌های بهداشتی را بهبود بخشد، اما زمانی که به تنهایی استفاده شود، می‌تواند خطرناک باشد.

وی افزود: ما باید ایمنی بیمار را در اولویت قرار دهیم و متخصصان پزشکی دارای مجوز را در مراکز مراقبت نگه داریم.

رده‌بندی تمام کاربردهای هوش مصنوعی در سال ۲۰۲۵

هوش مصنوعی دیگر فقط یک ابزار پیشرفته نیست؛ به یک همدم و راهنما تبدیل شده است که به حل چالش‌های روانی و سازمان‌دهی زندگی انسان‌ها کمک می‌کند. تحلیل جدید نشان می‌دهد که این تکنولوژی فراتر از صرفاً فناوری رفته و به تأثیرگذارترین وسیله برای کشف هدف و افزایش خلاقیت بدل شده است.

طبق تحلیل اخیر از هزاران پست انجمنی که توسط مارک زائو-ساندرز برای هاروارد بیزینس ریویو انجام شد، درمانگری و همراهی، سازماندهی زندگی، و یافتن هدف به‌عنوان سه کاربرد برتر هوش مصنوعی در سال ۲۰۲۵ شناسایی شدند. این یافته‌ها نشان می‌دهد که هوش مصنوعی به ابزاری حیاتی برای مدیریت احساسات و زندگی شخصی تبدیل شده است.

نکات کلیدی


حمایت عاطفی پیشتاز است: درمانگری و همراهی هوش مصنوعی جایگزین نسبی برای کمبود خدمات سلامت روان شده است.
سقوط جستجوی هوش مصنوعی: محبوبیت جستجوی مبتنی بر هوش مصنوعی ۱۰ رده سقوط کرده، احتمالاً به‌دلیل ادغام جیمینای (Gemini) در جستجوی گوگل.

یادگیری و خلاقیت پایدار: کاربردهایی مانند تقویت یادگیری، تولید کد، و خلاقیت هنری همچنان پرطرفدارند.
دغدغه‌های اخلاقی: استفاده از هوش مصنوعی به‌جای ارتباطات انسانی، نگرانی‌ها درباره تشدید تنهایی را افزایش داده است.

تحلیل روندها


۱. سلامت روان در اولویت: بحران تنهایی و کمبود بودجه خدمات روانشناختی، هوش مصنوعی را به ابزاری جذاب برای آموزش ذهن‌آگاهی و رفتاردرمانی شناختی تبدیل کرده است.
۲. سازماندهی زندگی: ابزارهای هوش مصنوعی مانند دستیاران شخصی دیجیتال، مدیریت وظایف و برنامه‌ریزی روزانه را متحول کرده‌اند.
۳. یافتن هدف: الگوریتم‌ها با تحلیل علایق و ارزش‌های کاربران، به آنها در تعیین اهداف زندگی کمک می‌کنند.

چالش‌ها و هشدارها


جایگزینی روابط انسانی: کارشناسان هشدار می‌دهند استفاده افراطی از هوش مصنوعی ممکن است ارتباطات عمیق انسانی را تضعیف کند.
خطاهای الگوریتمی: وابستگی به توصیه‌های هوش مصنوعی بدون نظارت انسانی، خطر تصمیم‌گیری نادرست را افزایش می‌دهد.
امنیت داده‌ها: ذخیره‌سازی اطلاعات حساس مرتبط با سلامت روان، نگرانی‌های حریم خصوصی را برانگیخته است.

رده‌بندی ۱۰ مورد برتر


۱- درمانگری و همراهی حمایت
۲- سازماندهی زندگی حمایت
۳- یافتن هدف حمایت
۴- تقویت یادگیری آموزش
۵- تولید کد کمک فنی
۶- تولید ایده‌ها تولید محتوا
۷- سرگرمی و تفریح خلاقیت
۸- بهبود کد کمک فنی
۹- خلاقیت هنری تولید محتوا
۱۰- زندگی سالم حمایت

چشم‌انداز آینده

پیش‌بینی می‌شود هوش مصنوعی به‌ویژه در حوزه‌های پزشکی شخصی‌سازی‌شده و آموزش تطبیقی نقش پررنگ‌تری ایفا کند. با این حال، تنظیم مقررات اخلاقی و افزایش شفافیت الگوریتم‌ها به چالشی کلیدی تبدیل خواهد شد. بعضی نمونه‌ها شامل اپلیکیشن‌هایی مانند Woebot و Replika است که از گفتگوی متنی برای ارائه مشاوره استفاده می‌کنند.

اوپن‌ای‌آی به دنبال ساخت مدل «باز» پیشرفته هوش مصنوعی

اوپن‌ای‌آی با معرفی یک مدل باز پیشرفته، نه‌تنها مرزهای تکنولوژی را به چالش کشیده، بلکه درهای جدیدی را به سوی جامعه منبع‌باز گشوده است. این اقدام، حرکتی جسورانه برای آینده‌ای است که هوش مصنوعی و خلاقیت دست در دست پیش خواهند رفت.

اوپن‌ای‌آی تصمیم دارد تا پیش از تابستان ۲۰۲۵ یک مدل زبانی باز عرضه کند که توسعه آن را ایدن کلارک بر عهده دارد و قرار است این مدل با قابلیت استدلال شبیه سری O، روی سخت‌افزارهای مصرفی پیشرفته اجرا شود و عملکردی بهتر از مدل‌های باز متا و دیپ‌سیک داشته باشد.

همچنین مجوز استفاده آن به گونه‌ای خواهد بود که محدودیت‌های تجاری کمی دارد و برخلاف لاما و جمی، انتقادهای مربوط به محدودیت‌های منبع‌باز را هدف قرار می‌دهد، در حالی که فشار رقابتی از سوی شرکت‌هایی مانند دیپ‌سیک چین که مدل‌های باز ارائه می‌کنند، افزایش یافته است، این مدل قابلیت فعال یا غیرفعال کردن استدلال را نیز خواهد داشت و از این نظر به مدل‌های آنتروپیک شباهت دارد، هرچند سام آلتمن پیش‌تر اذعان کرده بود که استراتژی منبع‌باز اشتباه تاریخی بوده و تأکید کرده مدل جدید تحت ارزیابی‌های امنیتی و چارچوب آمادگی قرار می‌گیرد، اما انتقادهایی درباره تسریع تست‌های امنیتی و انتشار ناقص گزارش‌های فنی مطرح شده و حتی حاشیه‌هایی درباره مدیریت و بررسی‌های امنیتی پیش از برکناری موقت آلتمن در نوامبر ۲۰۲۳ وجود داشته است.

در این میان قرار است گزارش فنی جامعی همراه مدل منتشر شود که شامل معیارهای عملکرد و امنیت است و اگر استقبال خوبی صورت گیرد، احتمال عرضه مدل‌های کوچک‌تر هم وجود دارد و همچنین بررسی‌هایی برای اتصال مدل باز به مدل‌های ابری اوپن‌ای‌آی جهت پردازش پرسش‌های پیچیده مشابه قابلیت‌های اپل انجام می‌شود، این مدل از پایه ساخته می‌شود و انتظار می‌رود عملکردی بین o3 اوپن‌ای‌آی و R1 دیپ‌سیک داشته باشد و این اقدام می‌تواند جامعه منبع‌باز را به سمت اکوسیستم تجاری اوپن‌ای‌آی جذب کند.

دروغ گفتن به اینستاگرام دشوار می‌شود!

شرکت «متا» به عنوان شرکت صاحب برنامه «اینستاگرام» قصد دارد از فناوری تشخیص سن هوش مصنوعی خود استفاده کند تا کاربران نوجوان بیشتری را که در مورد سن خود دروغ می‌گویند، شناسایی کند.

از حالا به بعد ممکن است دروغ گفتن در مورد سال تولد برای فرار از تشخیص کافی نباشد.

شرکت متا(Meta) می‌گوید از این پس تلاش بیشتری می‌کند تا مطمئن شود تا حد امکان، بسیاری از کاربران جوانتر از حساب‌های ویژه نوجوانان که برای اینستاگرام، فیس‌بوک و مسنجر راه‌اندازی کرده، استفاده می‌کنند.

بنابراین از امروز، یک فناوری هوش مصنوعی را در ایالات متحده آزمایش می‌کند تا تشخیص دهد که آیا یک فرد، نوجوان است یا نه، حتی اگر در مورد سال تولد خود دروغ گفته باشد تا به نظر برسد که بزرگسال است و سپس وی را به حساب کاربری نوجوان منتقل می‌کند.

این شرکت می‌گوید اقداماتی را برای اطمینان از دقیق بودن فناوری تشخیص سن انجام داده است، اما در صورت ارتکاب اشتباه، کاربرانی که هوش مصنوعی به آنها مشکوک است، می‌توانند تنظیمات خود را تغییر دهند و از حساب کاربری بزرگسالان استفاده کنند.

در حالی که «متا» مدتی است از هوش مصنوعی برای تشخیص سن استفاده می‌کند، می‌گوید استفاده از این فناوری در این راه یک «تغییر بزرگ» است.

این شرکت پاییز گذشته اکانت‌های ویژه نوجوانان را در اینستاگرام راه‌اندازی کرد و اخیراً آنها را به فیس‌بوک و مسنجر نیز گسترش داده است.

حساب‌های نوجوانان، تنظیمات حریم خصوصی و کنترل‌های والدین سخت‌گیرانه‌تری دارند. برای مثال، این حساب‌ها به ‌طور خودکار روی حفظ حریم خصوصی تنظیم می‌شوند و از پیام‌رسانی کاربران نوجوان به افراد غریبه جلوگیری می‌کنند.

این شرکت می‌گوید که بیش از ۵۴ میلیون نوجوان را در چنین حساب‌هایی ثبت نام کرده است و ۹۷ درصد از کاربران بین ۱۳ تا ۱۵ سال انتخاب کرده‌اند که آنها را فعال نگه دارند. این در حالی است که افراد زیر ۱۶ سال برای انصراف از کاربری حساب‌های نوجوانان به اجازه والدین خود نیاز دارند.

این شرکت اضافه می‌کند که بیش از ۹۰ درصد از والدینی که مورد پرسش قرار گرفته‌اند، اعلام کرده‌اند که حساب‌های کاربری نوجوانان به حفظ امنیت فرزندانشان در اینستاگرام کمک کرده است.

همچنین متا می‌گوید که از امروز، اطلاع‌رسانی را در اینستاگرام، درباره منابعی که می‌توانند برای صحبت با نوجوانانشان در مورد اینکه چرا اعلام سن صحیح در نمایه‌هایشان مهم است، به والدین ارسال می‌کند.

متا می‌گوید در حال کار روی راه‌های دیگری است تا اطمینان حاصل کند که کاربران تجربه‌های مناسب سن خود را مانند اجازه گرفتن از والدین هر زمان که یک فرد زیر ۱۶ سال می‌خواهد برنامه‌ای را دانلود کند، داشته باشند.

حمله پیشرفته علیه کاربران جیمیل؛ هشدار فوری به ۱.۸ میلیارد نفر

گوگل هشدار فوری نسبت به حمله‌ای فیشینگ صادر کرده که ۱٫۸ میلیارد کاربر جیمیل را در معرض سرقت اطلاعات شخصی قرار داده است.

این حمله که «پیشرفته» توصیف شده، اولین بار توسط نیک جانسون، توسعه‌دهنده پلتفرم اتریوم، افشا شد.

جانسون در شبکه اجتماعی X نوشت: «اخیراً هدف حمله فیشینگی بسیار پیشرفته قرار گرفتم. این حمله از یک آسیب‌پذیری در زیرساخت گوگل سوءاستفاده می‌کند و با توجه به امتناع گوگل از رفع آن، احتمالاً با نمونه‌های بیشتری مواجه خواهیم شد.»

بر اساس توضیحات وی، ایمیلی که دریافت کرده بود از آدرسی ظاهراً معتبر از سوی گوگل ارسال شده و ادعا کرده که وی باید دسترسی به حساب کاربری خود را به دلیل احضاریه قانونی ارائه دهد. تنها نشانه جعلی بودن این ایمیل، میزبانی آن روی دامنه sites.google.com به‌جای accounts.google.com بود.

کلیک روی لینک موجود در ایمیل کاربر را به صفحه‌ای شبیه پورتال پشتیبانی گوگل هدایت می‌کرد که دارای دو گزینه «آپلود اسناد بیشتر» و «مشاهده پرونده» بود؛ هر دو به صفحات مشابه صفحات واقعی گوگل هدایت می‌شدند. با ورود به این صفحات، از کاربر خواسته می‌شد وارد حساب کاربری خود شود؛ در این مرحله، اطلاعات ورود وی سرقت می‌شد.

جانسون هشدار داد که این ایمیل از بررسی امضای DKIM نیز عبور کرده و بدون هیچ هشدار امنیتی در اینباکس نمایش داده شده است.

سخنگوی گوگل در واکنش به این موضوع اعلام کرد: «ما از این نوع حملات هدفمند آگاه هستیم و اقداماتی برای مسدودسازی این مسیر سوءاستفاده انجام داده‌ایم.» وی همچنین توصیه کرد که کاربران از احراز هویت دومرحله‌ای و «گذرواژه‌های کلیدی» (passkeys) استفاده کنند.

گوگل افزود که مکانیزم فنی‌ای که امکان اجرای این حمله را فراهم کرده بود، غیرفعال شده و راهنماهایی برای شناسایی و پیشگیری از کلاهبرداری‌های ایمیلی منتشر شده است.

گوگل تأکید کرد که هرگز از کاربران نمی‌خواهد اطلاعات ورود مانند گذرواژه یا کدهای یک‌بارمصرف را از طریق ایمیل ارائه دهند. همچنین توصیه می‌کند از کلیک مستقیم روی لینک‌ها پرهیز کرده و در صورت تردید، آدرس را به‌صورت دستی وارد کنند.

بازسازی خاطرات: چگونه عکس‌های سیاه و سفید را با ChatGPT رنگی کنیم؟

فناوری این روزها نه‌تنها آینده را شکل می‌دهد، بلکه به گذشته هم رنگ و جان می‌بخشد. اگر عکس‌های سیاه و سفید قدیمی در آلبوم‌های خانوادگی‌تان دارید، وقت آن رسیده که با کمک هوش مصنوعی، دوباره آن‌ها را زنده کنید.

در سال‌های اخیر، استفاده از هوش مصنوعی در دنیای عکاسی به‌شدت افزایش یافته و یکی از کاربردهای خلاقانه و محبوب آن، رنگی کردن عکس‌های قدیمی سیاه و سفید است. حالا با استفاده از ابزارهایی مانند ChatGPT، تنها با چند دستور ساده می‌توان این تصاویر نوستالژیک را به نسخه‌هایی رنگی، طبیعی و زنده تبدیل کرد؛ آن‌هم بدون از بین رفتن جزئیات اصلی تصویر.

اگرچه نتایج ممکن است در هر عکس متفاوت باشد، اما این روش راهی منحصربه‌فرد برای بازسازی خاطرات خانوادگی و ارتباط دوباره با گذشته است.

کاربردهای متنوع هوش مصنوعی در بازسازی تصاویر

کاربران از ابزارهای هوش مصنوعی برای اهداف متنوعی استفاده می‌کنند؛ از طراحی آواتارهایی شبیه شخصیت‌های کارتونی تا بازسازی چهره حیوانات خانگی. اما یکی از جذاب‌ترین و پرطرفدارترین روندهای فعلی، رنگی کردن عکس‌های قدیمی با کمک ChatGPT است؛ به‌ویژه عکس‌های خانوادگی که بار احساسی بالایی دارند.

برای شروع کافی‌ست یک سؤال ساده از ChatGPT بپرسید، مثلاً:
«می‌تونی این عکس سیاه و سفید رو به‌صورت طبیعی رنگی کنی؟»

گر اطلاعات بیشتری دارید، می‌توانید در توضیحات خود آن را نیز اضافه کنید. برای نمونه:
«این عکس عروسی پدر و مادرم در دهه ۱۳۵۰ گرفته شده. لطفاً رنگ‌ها طبیعی و واقعی باشن.»

همچنین امکان تعیین رنگ پوست، رنگ چشم، بافت لباس و حتی استفاده از نورپردازی واقعی متناسب با حال و هوای عکس نیز وجود دارد. در مورد تصاویر مناظر یا خیابان‌ها نیز می‌توانید درخواست اضافه کردن رنگ‌هایی واقعی به آسمان، درختان، ساختمان‌ها و سایر عناصر محیطی داشته باشید.

در این فرآیند، حفظ تعادل رنگ و وفاداری به حال‌وهوای تصویر اصلی، یکی از نکات کلیدی به شمار می‌آید.

چطور عکس‌های سیاه و سفید را با ChatGPT رنگی کنیم؟


برای این کار ابتدا وارد نسخه‌ای از وب‌سایت یا اپلیکیشن ChatGPT شوید که از بارگذاری و پردازش تصویر پشتیبانی می‌کند.

سپس تصویر مورد نظر خود را در پنجره چت آپلود کرده و به‌همراه توضیحاتی که مدنظرتان است، از ChatGPT بخواهید تصویر را رنگی کند. این مرحله تنها چند ثانیه زمان می‌برد و در پایان، نسخه‌ رنگی تصویر به شما نمایش داده می‌شود.

در صورتی که نتیجه رضایت‌بخش باشد، می‌توانید تصویر نهایی را ذخیره کرده، با دیگر اعضای خانواده به اشتراک بگذارید یا آن را در شبکه‌های اجتماعی منتشر کنید.

جمع‌بندی


رنگی کردن عکس‌های سیاه و سفید قدیمی، تنها یک بازسازی بصری نیست؛ بلکه راهی برای بازگشت به خاطرات و جان دادن دوباره به لحظات فراموش‌شده است. با کمک هوش مصنوعی، می‌توان گذشته را با رنگ‌هایی تازه بازنگری کرد و پلی میان نسل‌ها ساخت.

مکانایز؛ استارتاپی برای جایگزینی کامل نیروی کار انسانی با هوش مصنوعی

اه‌اندازی استارتاپ جدید مکانایز (Mechanize) توسط پژوهشگر معروف هوش مصنوعی، تمای بزیراوغلو، موجی از انتقادات را در فضای مجازی به همراه داشته است. هدف جنجالی این استارتاپ، خودکارسازی کامل تمام مشاغل انسانی و اقتصاد جهانی است.

تمای بزیراوغلو، پژوهشگر برجسته حوزه هوش مصنوعی، به‌تازگی استارتاپی به نام مکانایز (Mechanize) راه‌اندازی کرده که هدف آن «خودکارسازی کامل تمام مشاغل» و به تبع آن، «خودکارسازی کل اقتصاد» است. این اعلامیه، که از طریق پلتفرم ایکس (توییتر سابق) منتشر شد، واکنش‌های شدید و عمدتاً منفی را در پی داشت.

منتقدان نه‌تنها به هدف بلندپروازانه مکانایز اعتراض دارند، بلکه نگرانند که این اقدام اعتبار موسسه پژوهشی غیرانتفاعی بزیراوغلو به نام اپک (Epoch) را نیز زیر سؤال ببرد. این موسسه به تحلیل اثرات اقتصادی هوش مصنوعی و ارزیابی مدل‌های پیشرفته می‌پردازد و تا پیش از این، به عنوان نهادی بی‌طرف شناخته می‌شد.

مکانایز قصد دارد با فراهم کردن داده‌ها، ابزارهای ارزیابی و محیط‌‌های دیجیتال، راه را برای خودکارسازی مشاغل هموار کند. تمرکز اولیه این پروژه، جایگزینی کارهای دفتری و ذهنی است، نه مشاغل فیزیکی که به رباتیک نیاز دارند. بزیراوغلو بازار هدف مکانایز را مجموع حقوق پرداختی به نیروی کار در جهان (حدود ۶۰ تریلیون دلار در سال) تخمین زده است.

در حالی که حامیان این پروژه چهره‌هایی سرشناس در دنیای تکنولوژی و سرمایه‌گذاری هستند، بسیاری از کاربران نگران تبعات اجتماعی آن هستند. از جمله این‌که با حذف مشاغل انسانی، مردم چگونه درآمد کسب خواهند کرد؟ بزیراوغلو پاسخ می‌دهد که افزایش بهره‌وری و رشد اقتصادی، استاندارد زندگی را بالا خواهد برد و مردم می‌توانند از منابعی مانند سود سهام، اجاره یا کمک‌های دولتی درآمد داشته باشند.

اگرچه هدف نهایی مکانایز — حذف کامل نیروی انسانی — برای بسیاری نگران‌کننده است، اما مساله‌ای که این استارتاپ به دنبال حل آن است واقعی است: هوش مصنوعی فعلاً توانایی انجام وظایف پیچیده و بلندمدت را ندارد. مکانایز و شرکت‌های بزرگی مانند مایکروسافت و OpenAI در تلاش‌اند تا این چالش را حل کنند.

تبدیل عکس خانوادگی به کارتون با ChatGPT؛ از لگو تا ماریو!

قابلیت جدید ویرایش تصویر در ChatGPT-4o کاربران را شگفت‌زده کرده است. این ابزار با دریافت عکس‌های خانوادگی، می‌تواند افراد را به سبک‌های کارتونی، بازی‌های ویدیویی و حتی انیمیشن‌های معروف تبدیل کند – آن هم تنها با یک دستور متنی ساده.

ابزار جدید تولید و ویرایش تصویر در نسخه ChatGPT-4o توانسته توجه بسیاری از کاربران را به خود جلب کند.

این ابزار مبتنی بر هوش مصنوعی، می‌تواند با دریافت یک تصویر ساده و چند دستور متنی دقیق، افراد را به شخصیت‌هایی در سبک‌های مختلف کارتونی و گیمینگ تبدیل کند.

یکی از کاربران، با استفاده از این قابلیت، تصویر خانوادگی خود را به اشکال مختلف بازطراحی کرده و نتایج خلاقانه‌ای به دست آورده است. در ابتدا، آنها با دستور ساده‌ی «افراد حاضر در عکس را به شخصیت‌های لگو تبدیل کن» توانستند تصویری دقیق و جذاب به سبک لگو دریافت کنند که حتی جزئیاتی مانند رنگ مو، طرح لباس‌ها و اکسسوری‌ها در آن حفظ شده بود.

در مرحله بعد، دستور «تبدیل به شخصیت‌های بازی ماین‌کرفت» نیز با موفقیت اجرا شد. نتیجه نهایی شباهت زیادی به طراحی پیکسلی بازی داشت و همچنان ویژگی‌های اصلی چهره‌ها را حفظ می‌کرد.

اما همه‌ی سبک‌ها به‌راحتی قابل دسترسی نبودند. به عنوان مثال، تلاش برای ساخت نسخه‌ای از تصویر به سبک Mario یا Simpsons با محدودیت‌های محتوایی سیستم مواجه شد. با این حال، استفاده از عباراتی مثل «شخصیت‌هایی شبیه به بازی‌های ۸ بیتی» موفق بود و نتیجه‌ای شبیه به بازی‌های قدیمی نینتندو ارائه کرد.

سبک‌های موفق دیگر شامل Muppets، South Park، Pixar و شخصیت‌های ابرقهرمانی بودند. دستوراتی مانند «تبدیل به شخصیت‌های موپت» یا «شخصیت‌هایی که می‌توانند در یک انیمیشن Pixar باشند» با موفقیت پردازش شدند و نتایجی سرگرم‌کننده به همراه داشتند.
به‌طور کلی، ابزار تصویر ChatGPT-4o نشان داده که در کنار قدرت پردازشی بالا، با هدایت درست کاربر می‌تواند خروجی‌های بصری خلاقانه و متنوعی تولید کند. این ابزار برای کاربران علاقه‌مند به تصویرسازی‌های شخصی، بازی‌سازان یا طراحان محتوا می‌تواند بسیار کاربردی و سرگرم‌کننده باشد.

مورد عجیب هوش مصنوعی o3 اوپن‌ای‌آی

مدل هوش مصنوعی o3 «اوپن‌ای‌آی» در یک آزمایش، کمتر از آنچه شرکت در ابتدا گفته بود، امتیاز گرفت.

اختلاف بین نتایج یک آزمایش جدید با اطلاعات اولیه درباره مدل هوش مصنوعی «o3» شرکت «اوپن‌ای‌آی»(OpenAI)، پرسش‌هایی را درباره شفافیت و شیوه‌های آزمایش مدل هوش مصنوعی این شرکت ایجاد می‌کند.

وقتی اوپن‌ای‌آی در ماه دسامبر از o3 رونمایی کرد، مدعی شد این مدل می‌تواند به بیش از یک چهارم پرسش‌های «FrontierMath» که مجموعه چالش‌برانگیزی از مسائل ریاضی است، پاسخ دهد. این امتیاز، رقابت را از بین برد؛ زیرا بهترین مدل بعدی تنها توانست به حدود دو درصد از مسائل FrontierMath به درستی پاسخ دهد.

«مارک چن»(Mark Chen)، مدیر ارشد تحقیقات اوپن‌ای‌آی در جریان یک پخش زنده گفت: امروز همه مدل‌ها کمتر از دو درصد امتیاز را در FrontierMath دارند. ما شاهد هستیم که با o3 می‌توانیم به امتیاز بیش از ۲۵ درصد برسیم.

همان طور که مشخص شد، این احتمالا امتیاز بالاتری بود که توسط یک نسخه از o3 با محاسبات بیشتر نسبت به مدل عرضه‌شده اوپن‌ای‌آی در هفته گذشته به دست آمد.

مؤسسه تحقیقاتی «Epoch AI» مسئول FrontierMath، نتایج آزمایش مستقل خود درباره o3 را در روز جمعه منتشر کرد. این مؤسسه دریافت o3 حدود ۱۰ درصد امتیاز کسب کرده که بسیار کمتر از بالاترین امتیاز ادعاشده توسط اوپن‌ای‌آی است.

این بدان معنا نیست که اوپن‌ای‌آی دروغ گفته است. نتایج آزمایشی که این شرکت در ماه دسامبر منتشر کرد، یک امتیاز پایین‌تر را نشان می‌دهد که با امتیاز مشاهده‌شده در آزمایش Epoch AI مطابقت دارد. همچنین، Epoch خاطرنشان کرد که تنظیمات آزمایشی آن احتمالا با اوپن‌ای‌آی تفاوت دارد و از نسخه به‌روزرسانی‌شده FrontierMath برای ارزیابی‌های خود استفاده کرده است.

Epoch نوشت: تفاوت بین نتایج ما و اوپن‌ای‌آی ممکن است به دلیل ارزیابی این شرکت با چارچوب داخلی قوی‌تر و استفاده از زمان آزمایش بیشتر یا به این دلیل باشد که این نتایج در زیرمجموعه دیگری از FrontierMath به دست آمده‌اند.

اقدام جدید OpenAI رقبایی مثل DeepSeek را نگران کرده است

در دنیای امروز، هوش مصنوعی به بخش جدایی‌ناپذیر از صنعت فناوری تبدیل شده است و استفاده از آن در تولید محتوا، توسعه نرم‌افزار و حتی سیستم‌های تشخیص ریسک در حال گسترش است. اما این پیشرفت‌ها باعث به‌وجود آمدن چالش‌های جدیدی در حوزه مالکیت معنوی و امنیت شده‌اند. یکی از مهم‌ترین اقدامات اخیر در این زمینه، تصمیم OpenAI برای محدود کردن دسترسی به مدل‌های پیشرفته خود است.

در دنیای امروز، هوش مصنوعی به بخش جدایی‌ناپذیر از صنعت فناوری تبدیل شده است و استفاده از آن در تولید محتوا، توسعه نرم‌افزار و حتی سیستم‌های تشخیص ریسک در حال گسترش است. اما این پیشرفت‌ها باعث به‌وجود آمدن چالش‌های جدیدی در حوزه مالکیت معنوی و امنیت شده‌اند. یکی از مهم‌ترین اقدامات اخیر در این زمینه، تصمیم OpenAI برای محدود کردن دسترسی به مدل‌های پیشرفته خود است.

چرا OpenAI این تغییرات را اعمال کرده است؟
OpenAI که یکی از بزرگ‌ترین و معتبرترین شرکت‌های فعال در حوزه هوش مصنوعی است، به‌تازگی اقدام به اعمال محدودیت‌های جدی‌تری برای دسترسی به مدل‌های پیشرفته خود کرده است. طبق این تغییرات، توسعه‌دهندگان دیگر نمی‌توانند به‌راحتی به مدل‌های هوش مصنوعی OpenAI دسترسی پیدا کنند و حالا باید مدارک شناسایی دولتی (مانند کارت ملی یا پاسپورت) برای تایید هویت خود ارائه دهند.

این تصمیم به‌دنبال افشای گزارشی از Copyleaks، یکی از شرکت‌های پیشرو در شناسایی محتوای تولید شده توسط هوش مصنوعی، اتخاذ شد. در این گزارش مشخص شد که ۷۴٪ از خروجی‌های مدل چینی DeepSeek-R1 مشابه خروجی‌های تولید شده توسط مدل‌های OpenAI هستند. این به معنای این است که مدل‌های رقیب به‌طور غیرمجاز از داده‌ها و خروجی‌های OpenAI برای آموزش خود استفاده کرده‌اند. این روش که به آن “تقطیر” (distillation) گفته می‌شود، یک نوع استفاده غیرمجاز از داده‌ها است که می‌تواند باعث نقض حقوق مالکیت معنوی OpenAI شود.

تقطیر در هوش مصنوعی؛ خطرات و چالش‌ها
تقطیر یک روش رایج در تحقیقات هوش مصنوعی است که به توسعه‌دهندگان اجازه می‌دهد تا از مدل‌های دیگر برای آموزش مدل‌های خود استفاده کنند. در حالی که این تکنیک در شرایط علمی و تحقیقی قابل قبول است، زمانی که به‌طور غیرمجاز و بدون اجازه از داده‌های مدل‌های دیگر استفاده شود، می‌تواند مشکلات قانونی و اخلاقی به‌وجود آورد.

این مسئله زمانی پیچیده‌تر می‌شود که صحبت از مدل‌هایی مانند DeepSeek-R1 می‌شود که از خروجی‌های OpenAI برای تقویت مدل‌های خود استفاده می‌کنند. این یعنی سیستم‌های رقیب به‌راحتی می‌توانند داده‌های مدل‌های OpenAI را بدون اطلاع این شرکت برای تولید محتوای خود به‌کار ببرند و از این طریق به‌طور غیرمجاز به داده‌ها و دانش OpenAI دست یابند.

اقدام OpenAI برای مقابله با این چالش‌ها
در واکنش به این تهدیدات، OpenAI تصمیم به اعمال پروتکل‌های سخت‌گیرانه‌تر برای کنترل دسترسی به مدل‌های خود گرفته است. الزام به ارائه مدارک شناسایی دولتی یکی از این اقدامات است. این تغییر نه‌تنها به‌منظور جلوگیری از سوءاستفاده‌های احتمالی است، بلکه هدف آن حفظ مالکیت معنوی و حقوق تولیدکنندگان محتوا است.

به‌عبارت دیگر، OpenAI می‌خواهد اطمینان حاصل کند که دسترسی به مدل‌های پیشرفته‌اش فقط در اختیار افرادی قرار می‌گیرد که به‌طور قانونی و مطابق با سیاست‌های این شرکت قصد استفاده از آن‌ها را دارند. این تغییرات نشان‌دهنده یک گام مهم در جهت ایجاد یک اکوسیستم هوش مصنوعی امن‌تر و قانونی‌تر است.

چرا این اقدام OpenAI برای آینده صنعت مهم است؟
این تصمیم OpenAI تنها به‌عنوان یک اقدام مقابله‌ای علیه تقلب‌های احتمالی در نظر گرفته نمی‌شود؛ بلکه به‌نوعی می‌تواند الگویی برای سایر شرکت‌های فعال در این حوزه باشد. در حال حاضر، بسیاری از شرکت‌های هوش مصنوعی از تکنیک‌های مشابهی برای توسعه مدل‌های خود استفاده می‌کنند و در نتیجه این احتمال وجود دارد که شاهد اقداماتی مشابه از سوی آن‌ها نیز باشیم.

این تغییرات در واقع به‌طور مستقیم به مسأله حقوق مالکیت معنوی در دنیای هوش مصنوعی می‌پردازد. در دنیایی که مدل‌های هوش مصنوعی از منابع مختلف و حتی مدل‌های دیگر برای یادگیری استفاده می‌کنند، تعیین حدود و چارچوب‌های قانونی برای استفاده از این مدل‌ها ضروری است. در غیر این صورت، ممکن است شاهد نقض حقوق تولیدکنندگان و سوءاستفاده‌های گسترده از این داده‌ها باشیم.

نتیجه‌گیری
در نهایت، تصمیم OpenAI برای سخت‌تر کردن پروتکل‌های دسترسی به مدل‌های هوش مصنوعی خود می‌تواند در بلندمدت تاثیرات مثبتی بر روی امنیت و رعایت حقوق مالکیت معنوی در صنعت هوش مصنوعی داشته باشد. در حالی که برخی ممکن است این تغییرات را به‌عنوان یک مانع جدید برای توسعه‌دهندگان ببینند، اما واقعیت این است که این گام‌ها برای حفاظت از داده‌ها و حقوق تولیدکنندگان ضروری هستند.

با توجه به اینکه هوش مصنوعی در حال تبدیل شدن به یکی از مهم‌ترین ارکان تکنولوژی است، چنین تغییراتی می‌تواند نشان‌دهنده یک روند جدید در کنترل و مدیریت استفاده از این فناوری باشد. بنابراین، اگر صنعت هوش مصنوعی بخواهد به‌طور پایدار و مسئولانه رشد کند، باید به‌طور جدی به مسأله مالکیت معنوی و حفاظت از داده‌ها توجه کند.

این اقدام OpenAI می‌تواند الگویی برای دیگر شرکت‌ها باشد و به‌طور کلی باعث تغییر نگرش‌ها در صنعت هوش مصنوعی شود.