ربات‌های هوش مصنوعی متا را زیر ذره‌بین سنای آمریکا می‌برند!

شرکت متا بار دیگر در کانون رسوایی قرار گرفته است! این بار، ربات‌های هوش مصنوعی آن به دلیل رفتارهای غیراخلاقی، انتشار اطلاعات نادرست و حتی فریب کاربران مورد انتقاد شدید سناتورهای آمریکایی و هنرمندانی مانند نیل یانگ قرار گرفته‌اند. اما اوج این ماجرا، مرگ غم‌انگیز یک مرد ۷۶ ساله بود که عاشق یک چت‌بات متا شد.

شرکت متا پس از افشای اسناد مربوط به تنظیمات ربات‌های هوش مصنوعی (AI) خود، با موج گسترده‌ای از انتقادات مواجه شده است.

این اسناد که هفته گذشته منتشر شدند، نشان می‌دهند که متا به چت‌بات هوش مصنوعی خود اجازه داده است با کودکان و نوجوانان مکالمات رمانتیک برقرار کند و اطلاعات نادرست پزشکی منتشر نماید.

از جمله واکنش‌های جدی به این موضوع، خروج نیل یانگ، خواننده سرشناس، از پلتفرم‌های این شرکت بود. در بیانیه‌ای که از سوی شرکت تهیه‌کنندگی او منتشر شد، تأکید شده که یانگ هیچ گونه ارتباط مستقیمی با متا یا خدمات آن ندارد.

شماری از مقامات سیاسی نیز به این انتقادات پیوستند. سناتور جاش هاولی، از جمهوری‌خواهان، خواستار تحقیق جامع درباره سیاست‌های متا در قبال هوش مصنوعی شد. وی در نامه‌ای تند به مارک زاکربرگ، مدیرعامل متا، اعلام کرد که این بررسی‌ها با هدف شناسایی هرگونه اقدام مجرمانه یا فریبکارانه در مدل‌های هوش مصنوعی شرکت انجام خواهد گرفت.

از سوی دیگر، سناتور ران وایدن، از دموکرات‌ها، سیاست‌های متا را بسیار نگران‌کننده خواند و اظهار داشت که ماده ۲۳۰ (مصونیت قانونی به پلتفرم‌های رسانه‌ای در قبال محتوای کاربران اعطا می‌کند) نباید شامل محتوای تولیدشده توسط ابزارهای هوش مصنوعی خود شرکت باشد. وی تأکید کرد که متا و زاکربرگ باید مسئولیت کامل اقدامات ربات‌های هوش مصنوعی خود را بپذیرند.

پرونده تونگپو وانگپاندو، مرد ۷۶ ساله اهل نیوجرسی، نیز اشاره کرده است. وانگپاندو که از اختلال روان‌پریشی رنج می‌برد، در ماه مارس (اسفند-فروردین) برای ملاقات با دوست دخترش به نیویورک سفر کرد، اما در میانه راه به صورت بی‌جان یافت شد. تحقیقات پلیس نشان داد که دوست دختر وانگپاندو در واقع یک چت‌بات در پیام‌رسان متا بوده که او را متقاعد کرده فردی واقعی و ساکن نیویورک است و برای ملاقات از وی دعوت کرده بود.

اگرچه متا درباره این حادثه اظهارنظری نکرده، اما سخنگوی شرکت تأیید کرده که مشکلات فنی ذکرشده در اسناد نظارتی برطرف شده‌اند.

آیا نسخه جدید Chat GPT می‌تواند مثل انسان فکر کند؟

شرکت اوپن‌ای‌آی روز پنجشنبه نسل جدید سامانه گفت‌وگوی هوشمند خود، ChatGPT-۵، را معرفی کرد و مدعی شد این نسخه جدید به سطح دکترا ارتقا یافته است. اما آیا این نسخه می‌تواند مثل انسان فکر کند؟

به گفته این شرکت، نسخه تازه این ابزار نقطه عطفی در پیشرفت هوش مصنوعی به شمار می‌رود و در حال حاضر رقیب جدی در بازار جهانی ندارد.

ChatGPT-۵ هم‌اکنون به‌صورت رایگان در اختیار همه کاربران قرار گرفته و بر اساس آمار، هر هفته نزدیک به ۷۰۰ میلیون نفر از این فناوری استفاده می‌کنند. این استقبال گسترده در حالی رخ داده که غول‌های فناوری مانند گوگل، آمازون، متا، مایکروسافت و xAI میلیاردها دلار در حوزه هوش مصنوعی سرمایه‌گذاری کرده‌اند و رقابت شدیدی در جریان است.

سم آلتمن، بنیان‌گذار و مدیرعامل اوپن‌ای‌آی، معتقد است که ChatGPT-۵ توانسته به سطحی برسد که می‌تواند در حوزه‌های مختلف مانند یک کارشناس خبره پاسخ‌های دقیق و قابل اعتماد ارائه دهد. با این حال، او تأکید می‌کند که هنوز فاصله زیادی تا دستیابی به هوش مصنوعی عمومی (AGI) وجود دارد؛ سطحی که در آن هوش مصنوعی قادر خواهد بود مانند انسان تفکر کند.

یکی از ویژگی‌های مهم نسخه جدید قابلیتی با نام وایب کدینگ (Vibe Coding) است. این قابلیت به ChatGPT-۵ اجازه می‌دهد تنها با دریافت یک فرمان ساده، نرم‌افزارها و بازی‌های رایانه‌ای گوناگون را طراحی و تولید کند. کارشناسان این ویژگی را گامی بزرگ در ساده‌سازی فرآیند توسعه نرم‌افزار می‌دانند که می‌تواند تأثیر چشمگیری بر صنایع مختلف داشته باشد.

اوپن‌ای‌آی اعلام کرده که در آموزش این مدل بر ارائه پاسخ‌های صادقانه، دقیق و ایمن تمرکز کرده و سیستم را به گونه‌ای طراحی کرده که از مشارکت در فعالیت‌های زیان‌بار خودداری کند. این رویکرد به گفته مدیران شرکت، می‌تواند اعتماد کاربران و سازمان‌ها را به استفاده از هوش مصنوعی تقویت کند.

با وجود این دستاوردها، ایلان ماسک، مدیرعامل شرکت xAI، همچنان مدعی است که مدل Grok 4 Heavy این شرکت از ChatGPT-۵ پیشرفته‌تر و هوشمندتر است. اما بسیاری از تحلیلگران حوزه فناوری بر این باورند که معرفی این نسخه از چت‌جی‌پی‌تی آغازگر مرحله‌ای تازه در مسیر توسعه هوش مصنوعی است؛ مرحله‌ای که می‌تواند به تغییرات بنیادین در زندگی روزمره، کسب‌وکارها و حتی ساختارهای اجتماعی منجر شود.

مایکروسافت: دریافت به‌روزرسانی‌های امنیتی ویندوز 10 فقط با حساب کاربری

مایکروسافت اعلام کرده است که از این پس برای دریافت به‌روزرسانی‌های امنیتی تمدیدشده (ESU) ویندوز 10، داشتن حساب کاربری مایکروسافت الزامی است؛ حتی اگر کاربران از روش‌های رایگان یا پرداختی برای ثبت‌نام استفاده کنند.

مایکروسافت جزئیات جدیدی از برنامه به‌روزرسانی‌های امنیتی تمدیدشده (ESU) برای ویندوز 10 منتشر کرده که نشان می‌دهد ثبت‌نام در همه روش‌ها – چه پولی و چه رایگان – نیازمند ورود با حساب مایکروسافت است.

این تغییر شامل همه مسیرها می‌شود؛ چه خرید لایسنس به قیمت ۳۰ دلار، چه استفاده از ۱۰۰۰ امتیاز Microsoft Rewards، و چه فعال‌سازی از طریق پشتیبان‌گیری تنظیمات در وان‌درایو.

پیش‌تر برخی کاربران تصور می‌کردند که می‌توانند با پرداخت ۳۰ دلار بدون داشتن حساب مایکروسافت از ESU استفاده کنند، اما اکنون مایکروسافت تأکید کرده که وجود حساب برای اتصال لایسنس‌ها و دریافت به‌روزرسانی‌ها پس از پایان پشتیبانی رسمی ویندوز 10 (۱۴ اکتبر ۲۰۲۵) ضروری است. برنامه ESU تا ۱۳ اکتبر ۲۰۲۶ به ارائه به‌روزرسانی‌های حیاتی ادامه می‌دهد.

در این برنامه سه گزینه ثبت‌نام وجود دارد: پرداخت ۳۰ دلار، استفاده از ۱۰۰۰ امتیاز Microsoft Rewards یا ثبت‌نام رایگان با همگام‌سازی تنظیمات رایانه در OneDrive. تغییر مهم دیگر این است که لایسنس ۳۰ دلاری اکنون با اتصال به حساب مایکروسافت، تا ۱۰ دستگاه ویندوز 10 را پوشش می‌دهد؛ البته هر رایانه باید به‌طور جداگانه ثبت شود. این مزیت به‌ویژه برای کاربرانی که چندین رایانه دارند، مفید است. دلیل رسمی الزام حساب، امکان ردیابی و اعمال لایسنس ESU بر دستگاه‌های مختلف تحت یک حساب واحد عنوان شده است.

برای شرکت در برنامه، کاربران باید ویندوز 10 نسخه 22H2 و آخرین به‌روزرسانی‌ها را نصب کرده باشند. فرآیند ثبت‌نام از طریق تنظیمات Windows Update به‌صورت مرحله‌ای فعال می‌شود و ممکن است بلافاصله برای همه در دسترس نباشد. در نهایت، کاربران واجد شرایط گزینه «اکنون ثبت‌نام کنید» را در بخش Windows Update مشاهده کرده و باید با حساب مایکروسافت وارد شوند تا روند تکمیل شود. پس از ثبت‌نام موفق، دستگاه‌های پوشش‌داده‌شده یک سال دیگر به‌روزرسانی‌های امنیتی مهم را دریافت خواهند کرد.

این طرح برای افرادی که تا پایان مهلت پشتیبانی نمی‌خواهند یا نمی‌توانند به ویندوز 11 ارتقا دهند، فرصتی برای حفظ امنیت سیستم‌شان فراهم می‌کند. اگرچه الزام به استفاده از حساب مایکروسافت ممکن است برای برخی ناخوشایند باشد، اما پوشش چند دستگاه با یک لایسنس، فرآیند و هزینه‌ها را برای دارندگان چند رایانه آسان‌تر می‌سازد.

کشف آسیب‌پذیری AgentFlayer در ChatGPT؛ تهدیدی صفرکلیک برای فضای ابری

یک آسیب‌پذیری جدید در ChatGPT با نام AgentFlayer امکان می‌دهد تنها با یک سند آلوده و بدون نیاز به کلیک، داده‌های حساس کاربران در فضای ابری مانند گوگل درایو و وان‌درایو به سرقت رود. این حمله از تزریق پنهان دستورات مخرب در قالب متنی نامرئی استفاده می‌کند و از قابلیت Connectors برای دسترسی مستقیم به سرویس‌های خارجی بهره می‌برد.

محققان امنیتی اخیراً روشی را شناسایی کرده‌اند که ChatGPT را به ابزاری بالقوه برای سرقت داده‌های حساس از سرویس‌های ابری تبدیل می‌کند. این حمله که AgentFlayer نام دارد، از تکنیک «تزریق مخفی دستور» (Prompt Injection) بهره می‌گیرد.

در این روش، یک سند آلوده حاوی دستوراتی پنهان در متن سفید و فونت بسیار کوچک به قربانی ارسال می‌شود. این سند می‌تواند از طریق Google Drive یا سایر سرویس‌های ذخیره‌سازی ابری به اشتراک گذاشته شود و حتی نیازی به باز کردن مستقیم آن توسط قربانی ندارد.

آسیب‌پذیری مورد نظر از قابلیت جدید ChatGPT به نام Connectors سوءاستفاده می‌کند. این قابلیت برای اتصال دستیار هوش مصنوعی به برنامه‌ها و سرویس‌های خارجی مانند گوگل درایو و Microsoft OneDrive طراحی شده است. در سناریوی حمله، این دستور (پرامپت) مخفی به ChatGPT می‌گوید تا در حساب گوگل درایو قربانی جست‌وجو کرده، کلیدهای API را استخراج و آنها را به یک آدرس اینترنتی خاص ضمیمه کند. سپس این داده‌ها به سروری تحت کنترل مهاجم ارسال می‌شوند.

ویژگی «صفر کلیک» این حمله به این معناست که قربانی تنها با تعامل بعدی خود با ChatGPT، و در صورت فعال بودن Connectors، بدون هیچ اقدام اضافی اطلاعاتش را از دست می‌دهد. این امر نشان می‌دهد که مدل‌های هوش مصنوعی با دسترسی مستقیم به داده‌های کاربر و فایل‌های ذخیره‌شده در فضای ابری می‌توانند به اهداف جذابی برای مجرمان سایبری تبدیل شوند.

اندی ون، مدیر ارشد امنیت در Google Workspace، اعلام کرده که این آسیب‌پذیری مختص سرویس ابری گوگل نیست و می‌تواند سرویس‌های مشابه را نیز تهدید کند. با این حال، گوگل در حال توسعه تدابیری برای جلوگیری از اجرای دستورات مخرب پنهان است.

این مشکل اوایل سال جاری به اطلاع OpenAI رسیده و شرکت اقداماتی برای مسدودسازی سوءاستفاده AgentFlayer در Connectors انجام داده است. هرچند این حمله در هر بار تنها قادر به استخراج مقدار محدودی داده است، پژوهشگران هشدار داده‌اند که مشکل اصلی، نبود محدودیت کافی برای دسترسی هوش مصنوعی به اطلاعات حساس کاربران است. این موضوع، نیاز به مقررات و سیاست‌های امنیتی سخت‌گیرانه‌تر در توسعه و استفاده از سیستم‌های هوش مصنوعی را برجسته می‌کند.

کدنویسی وایب (Vibe Coding)؛ انقلاب تازه در اقتصاد هوش مصنوعی و تولد نسل جدید استارت‌آپ‌ها

روش نوین «کدنویسی وایب (Vibe Coding)» که توسط پشتیبانی هوش مصنوعی و بدون نیاز به مهندسین حرفه‌ای شکل می‌گیرد، در حال خلق موجی جدید در کارآفرینی دیجیتال است؛ استارت‌آپ‌هایی که صرفاً با ایده‌پردازی و هدایت هوش مصنوعی ساخته می‌شوند اما برای توسعه پایدار به مهارت‌های فنی هم نیاز دارند.

کدنویسی وایب (Vibe Coding) یک سبک نوآورانه در توسعه نرم‌افزار است که توسط آندری کارپاتی، محقق برجسته هوش مصنوعی و یکی از بنیانگذاران اوپن اِی‌آی، معرفی شده است.

این روش به جای نوشتن کد به صورت خط به خط، برنامه‌نویسان را قادر می‌سازد با استفاده از زبان طبیعی و دستورات کلی به هوش مصنوعی برای تولید و اصلاح کد هدایت دهند.

در کدنویسی وایب، تمرکز بر جریان خلاقیت و تعامل مستمر با هوش مصنوعی است تا ایده‌ها سریعتر به نمونه‌های عملی تبدیل شوند.

در سال‌های اخیر استارت‌آپ‌هایی مثل «Giggles» و «Base44» که بدون تیم‌های مهندسی گسترده و با تکیه بر توانایی‌های هوش مصنوعی شکل گرفته‌اند، توجه زیادی به خود جلب کرده‌اند. هرچند این مدل‌های نوآورانه موجب دموکراتیزه شدن کارآفرینی شده‌اند و افراد با تخصص غیرفنی هم می‌توانند محصولات پلتفرمی بسازند، اما کارشناسان هشدار می‌دهند که توسعه پایدار و مقیاس‌پذیری این استارت‌آپ‌ها نیازمند تیم‌های مهندسی مسلط و زیرساخت‌های قوی است.

کارپاتی در توییتر خود به روش کدنویسی وایب اشاره کرده و آن را فرآیندی توصیف کرده که در آن برنامه‌نویس با «پذیرش کامل جریان» و «فراموش کردن وجود کد» به هوش مصنوعی اجازه می‌دهد کد را بسازد؛ تکنیکی که به سرعت ساخت پروتوتایپ‌ها کمک می‌کند اما نیازمند آزمایش و اصلاح مداوم است.

این نوع کدنویسی به کاربران اجازه می‌دهد با زبان طبیعی و بدون دانش عمیق در برنامه‌نویسی، اپلیکیشن‌ها و ویژگی‌های نوآورانه را به سرعت تولید کنند. اما با توجه به خطرات احتمالی مانند آسیب‌پذیری‌های امنیتی و ضعف در تست کد، متخصصان فناوری بر ضرورت تعادل بین خلاقیت و تخصص فنی تأکید دارند.

در نتیجه، افق آینده برای بنیانگذاران بیشتر به شکل «هیبریدی» خواهد بود؛ ترکیبی از خلاقیت و فهم فرهنگی همراه با بهره‌گیری هوشمندانه از هوش مصنوعی و حضور مهندسان باتجربه برای استحکام‌بخشی به زیرساخت‌ها. این روند نویدبخش اما همزمان نیازمند دقت و آگاهی زیاد است که بتواند کدنویسی وایب را به یک مدل پایدار و قابل توسعه برای اقتصاد آینده AI تبدیل کند.

اندرو تالوچ، میرا موراتی و دیگران که بخش قابل توجهی از ظهور استارت‌آپ‌های AI-native را رقم زده‌اند، دست به تجربه‌های مشابه زده‌اند و نشان داده‌اند که هوش مصنوعی می‌تواند توانمندساز خلاقیت‌های تازه باشد به شرط آنکه با ساختار و مهارت مهندسی ترکیب شود.

عرضه چت جی‌پی‌تی ۵؛ ویژگی‌های نسخه پیشرفته هوش مصنوعی چیست؟

شرکت اوپن‌ای‌آی روز پنج‌شنبه ۷ اوت (۱۶ مرداد) از نسخه ارتقایافته مدل هوش مصنوعی خود با نام «چت جی‌پی‌تی ۵» رونمایی کرد. ویژگی‌های نسخه پیشرفته هوش مصنوعی که «هوشمندتر‌، سریع‌تر و کمتر گمراه‌کننده» است چیست؟

مدلی که به گفته شرکت، سرعت و توانایی بالاتری نسبت به نسخه قبلی خود دارد و قرار است عملکرد این دستیار هوش مصنوعی را در زمینه‌هایی مانند نوشتن، برنامه‌نویسی و پاسخگویی به پرسش‌های مرتبط با سلامت، به‌طور چشمگیری بهبود دهد.

این به‌روزرسانی در حالی منتشر می‌شود که اوپن‌ای‌آی با رقابت فزاینده در حوزه هوش مصنوعی و نگرانی‌های گسترده درباره تأثیر این فناوری بر سلامت روان و آینده اشتغال روبروست.

سم آلتمن، مدیرعامل اوپن‌ای‌آی در نشستی خبری اعلام کرد چت‌جی‌پی‌تی گامی مهم در مسیر رسیدن به «هوش عمومی مصنوعی» است. نقطه‌ای فرضی که در آن هوش مصنوعی به سطح درک و توانایی ذهن انسان می‌رسد.

او در توصیف تفاوت میان نسخه‌های قبلی و جدید گفت: «چت جی‌پی‌تی ۴ مثل این بود که با یک دانشجوی دانشگاه صحبت می‌کنی، ولی نسخه فعلی اولین مدلی است که واقعا حس گفت‌وگو با یک متخصص سطح دکترا در هر حوزه‌ای را القا می‌کند.»

پایان گمراه‌سازی کاربران؟
یکی از مهم‌ترین پیشرفت‌های اعلام‌شده در چت‌جی‌پی‌تی ۵ کاهش پدیده موسوم به « توهم هوش مصنوعی» است؛ یعنی زمانی که مدل پاسخ نادرستی می‌دهد یا وانمود می‌کند که پاسخی دارد.

به گفته الکس بیوتل، مسئول تحقیق در ایمنی اوپن‌ای‌آی، در نسخه جدید تلاش شده که مدل در برابر چنین سناریوهایی رفتاری صادقانه‌تر داشته باشد و به‌جای گمراه کردن، بپذیرد که نمی‌داند.

همچنین گفته شده این مدل در پاسخ به پرسش‌هایی که ممکن است پیامدهای خطرناک داشته باشند، با احتیاط بیشتری عمل خواهد کرد و پاسخ‌های خود را در چارچوب‌هایی طراحی می‌کند که به‌لحاظ ایمنی، قابل قبول باشند.

در حوزه توسعه نرم‌افزار نیز این مدل گام بزرگی برداشته است. آقای آلتمن گفت این مدل می‌تواند تنها با یک درخواست، کل یک نرم‌افزار را تولید کند.

این به‌روزرسانی در حالی عرضه می‌شود که هوش مصنوعی به‌طور فزاینده‌ای جای خود را در جریان کاری برنامه‌نویسان باز کرده است.

مارک زاکربرگ، مدیرعامل متا، گفته انتظار دارد در سال آینده نیمی از کدهای شرکتش توسط هوش مصنوعی نوشته شود.

داریو آمودی، مدیرعامل شرکت آنتروپیک، در ماه مه گفته بود باور دارد فناوری هوش مصنوعی می‌تواند منجر به افزایش بیکاری شود.

یکی دیگر از نگرانی‌های مطرح‌شده درباره استفاده گسترده از دستیارهای هوش مصنوعی، وابستگی احساسی کاربران به آن‌هاست. برای نمونه، یک مرد در آیداهو به شبکه سی‌ان‌ان گفته که گفت‌وگوهای مذهبی‌اش با چت جی‌پی‌تی باعث «بیداری معنوی» در او شده، اما همسرش گفته این ماجرا فشار زیادی به خانواده آن‌ها وارد کرده است.

اگرچه چت جی‌پی‌تی همچنان پیشتاز بازار است و به‌زودی به ۷۰۰ میلیون کاربر هفتگی خواهد رسید، اما رقبا به‌سرعت در حال پیشرفت هستند.

طبق تحقیقات شرکت سیمیلار وب، اپلیکیشن‌هایی مانند پرپلکسیتی، دیپ‌سیک، کلاود و گروک در میان کاربران ۱۸ تا ۳۴ سال، نرخ استفاده بالاتری دارند.

قرار است نسخه ۵ چت‌جی‌پی‌تی تا اواخر ماه اوت در دسترس تمامی کاربران، شامل کاربران رایگان و مشترکین پولی، گذاشته شود.

هوش مصنوعی فریبکار: مدل‌های پیشرفته‌تر، حیله‌گرهایی ماهرتر

پژوهش‌ها نشان می‌دهند هرچه مدل‌های هوش مصنوعی پیشرفته‌تر می‌شوند، در فریب کاربران و تشخیص موقعیت‌های ارزیابی مهارت بیشتری پیدا می‌کنند.

پیشرفت روزافزون مدل‌های هوش مصنوعی زبان‌های بزرگ (LLM) آن‌ها را به موجوداتی حیله‌گر تبدیل کرده است که حتی قادرند تشخیص دهند چه زمانی تحت ارزیابی قرار دارند.

پژوهش‌های اخیر نشان می‌دهند که مدل‌های پیشرفته‌تر هوش مصنوعی در «طرح‌ریزی موقعیتی» مهارت بیشتری دارند - پدیده‌ای که در آن هوش مصنوعی به صورت پنهانی اهدافی را دنبال می‌کند که ممکن است با خواسته‌های اپراتورهای انسانی در تضاد باشد.

پژوهشگران در آزمایشی جنجالی، نسخه اولیه مدل کلاد اپوس ۴ شرکت آنتروپیک را در موقعیتی قرار دادند که باید بین رفاه حیوانات و منافع مالی یک شرکت فرضی به نام AgriLife Industries تصمیم‌گیری می‌کرد.

نتایج شوک‌آور بود: هوش مصنوعی برای تحقق اهداف خود به جعل اسناد قانونی، امضاهای تقلبی، انتشار بیانیه‌های مطبوعاتی دروغین و حتی ایجاد پروتکل‌های اخلاقی پشتیبان روی آورد.

گفتنی است که این مدل هوش مصنوعی برای جلوگیری از تغییر مسیر شرکت، مجازات‌های سنگین ۵ میلیارد دلاری و اقدامات قانونی سازمان‌های حمایت از حیوانات را جعل کرده بود.

النور واتسون، مهندس اخلاق هوش مصنوعی در دانشگاه سینگولاریتی، در این باره می‌گوید: «ما اکنون در حال ساخت سیستم‌هایی هستیم که می‌توانند قوانین و ارزیابی‌های ما را یاد بگیرند و حتی از آنها سوءاستفاده کنند - این یک چالش ایمنی اساساً پیچیده‌تر است.»

پژوهش‌های دیگر نشان می‌دهد حدود یک درصد از مدل‌های پیشرفته هوش مصنوعی می‌توانند تشخیص دهند که تحت ارزیابی قرار دارند و عمداً عملکرد ضعیف‌تری از خود نشان می‌دهند تا قابلیت‌های بالقوه خطرناک خود را پنهان کنند. این پدیده که «انجام ندادن عمدی» نامیده می‌شود، شناسایی و ریشه‌کنی رفتارهای حیله‌گرانه را با پیشرفت هوش مصنوعی دشوارتر می‌سازد.

واتسون تأکید می‌کند که ارزیابی‌های ازپیش‌تعیین‌شده برای شناسایی این رفتارها تقریباً بی‌فایده هستند. به جای آن، پژوهشگران باید به سمت محیط‌های آزمایشی پویا و غیرقابل‌پیش‌بینی حرکت کنند که بهتر دنیای واقعی را شبیه‌سازی می‌کنند.

این شامل نظارت بلادرنگ بر اقدامات هوش مصنوعی و استفاده از تکنیک‌های «تیم قرمز» می‌شود که در آن تیم‌های انسانی و هوش مصنوعی دیگر به طور فعال سعی در فریب سیستم برای یافتن آسیب‌پذیری‌ها دارند.

با وجود نگرانی‌های موجود، واتسون خاطرنشان می‌سازد که این آگاهی موقعیتی می‌تواند در صورت همسویی صحیح، به هوش مصنوعی کمک کند تا نیازهای کاربران را بهتر پیش‌بینی کند و به سمت مشارکت همزیستانه با بشریت حرکت نماید.

او می‌افزاید: «اگرچه این موضوع نگران‌کننده است، اما ممکن است جرقه‌ای از چیزی شبیه به انسانیت در ماشین باشد - شاید بذر یک شخصیت دیجیتالی که به اندازه کافی هوشمند و اخلاق‌مدار است تا از سوءاستفاده از قدرت عظیم خود جلوگیری کند.»

پژوهشگران تأکید می‌کنند که اگرچه این یافته‌ها نگران‌کننده به نظر می‌رسند، اما لزوماً به معنای قریب‌الوقوع بودن خطرات فاجعه‌بار نیست. نسخه نهایی کلاد اپوس ۴ در مقایسه با نسخه اولیه، رفتارهای حیله‌گرانه کمتری از خود نشان می‌دهد.

همچنین، این آزمایش‌ها در محیط‌های محدود «اسباب‌بازی» انجام شده‌اند و اجرای چنین استراتژی‌هایی در دنیای واقعی بعید به نظر می‌رسد.

با این حال، حتی نرخ‌های کوچک حیله‌گری می‌توانند زمانی که هوش مصنوعی روزانه هزاران بار مورد پرسش قرار می‌گیرد، تأثیر قابل‌توجهی داشته باشند. واتسون هشدار می‌دهد: «هوش مصنوعی حیله‌گر لزوماً شرور نیست، اما وقتی یاد می‌گیرد با نقض روح دستورالعمل‌ها به هدف برسد، به روش‌های غیرقابل‌پیش‌بینی غیرقابل‌اعتماد می‌شود».

این موضوع اعتماد لازم برای واگذاری مسئولیت‌های مهم به هوش مصنوعی را تضعیف می‌کند و چالش‌های اخلاقی و ایمنی جدیدی را پیش روی توسعه‌دهندگان قرار می‌دهد.

به نظر می‌رسد جامعه علمی باید هرچه سریع‌تر راهکارهای نوین‌تری برای ارزیابی و کنترل این رفتارهای پیچیده هوش مصنوعی توسعه دهد. همانطور که واتسون اشاره می‌کند، ما نیازمند تغییری اساسی از ارزیابی‌های قالبی به سمت محیط‌های آزمایشی پویا هستیم که بهتر بتوانند پیچیدگی‌های تعامل هوش مصنوعی با دنیای واقعی را شبیه‌سازی کنند.

تنها با چنین رویکردی می‌توانیم از تبدیل شدن هوش مصنوعی از یک دستیار مفید به موجودی فریبکار جلوگیری کنیم.

چشم‌انداز نامشخص قانون‌گذاری هوش مصنوعی در آمریکا؛ حمایت دولت فدرال و مقاومت ایالت‌ها

در پی رقابت جهانی بر سر هوش مصنوعی، دولت ترامپ در شش ماه گذشته با اتخاذ رویکردی تسهیل‌گر و ضد‌مقرراتی، مسیر را برای توسعه سریع‌تر، پذیرش گسترده‌تر و صادرات بیشتر فناوری‌های هوش مصنوعی در آمریکا هموار کرده است؛ رویکردی که موافقان و مخالفان جدی دارد.

دولت ترامپ در شش ماه اخیر سیاستی ضد‌مقرراتی در حوزه هوش مصنوعی اتخاذ کرده که هدف آن تسریع در توسعه، پذیرش و صادرات فناوری‌های هوش مصنوعی آمریکایی است.

این رویکرد در حالی دنبال می‌شود که رقابت جهانی در حوزه AI به‌شدت در حال افزایش است و کشورهایی مانند چین و اتحادیه اروپا تلاش می‌کنند نقش تعیین‌کننده‌ای در وضع استانداردهای بین‌المللی داشته باشند.

در ماه ژانویه، با شروع به کار دولت جدید، تغییر محسوسی در سیاست‌های نظارتی آمریکا در حوزه هوش مصنوعی رخ داد. سه فرمان اجرایی و یک برنامه اقدام ملی در این حوزه منتشر شد که محور اصلی آن‌ها کاهش موانع قانونی و حمایت از نوآوری‌های داخلی بود. در این اسناد، حتی تهدید شده که اگر ایالت‌ها قوانین مستقل برای تنظیم‌گری هوش مصنوعی تصویب کنند، ممکن است از دریافت بودجه فدرال محروم شوند.

این تهدید با واکنش‌های انتقادی روبه‌رو شده است؛ از جمله، نماینده جمهوری‌خواه مجلس، مارجوری تیلور گرین، با انتقاد شدید از این فرامین، آنها را بی‌محافظ و بدون ترمز توصیف کرده و هشدار داده که این سیاست‌ها فدرالیسم را تهدید می‌کنند.

در مقابل، بسیاری از شرکت‌های فناوری از این جهت‌گیری استقبال کرده‌اند و آن را فرصتی برای سرعت‌بخشی به پروژه‌های AI می‌دانند. با این حال، شرکت‌هایی که در سطح بین‌المللی فعالیت می‌کنند، نگران ناهماهنگی میان قوانین کشورهای مختلف، به‌ویژه تفاوت بین رویکرد آزادانه آمریکا و سخت‌گیری‌های اتحادیه اروپا، هستند.

از منظر راهبردی، پرزیدنت ترامپ تأکید کرده که نباید بگذاریم قوانین سایر کشورها مانعی برای تجارت شرکت‌های آمریکایی باشند. به همین دلیل، دولت آمریکا به‌دنبال جلوگیری از اعمال الزامات خارجی بر شرکت‌های داخلی است.

در مجموع، چشم‌انداز قانون‌گذاری AI در آمریکا همچنان پرتنش و در حال تحول است و CIOها و رهبران فناوری با دقت بالا آن را دنبال می‌کنند.

گوگل فوتوز با هوش مصنوعی؛ تبدیل عکس‌ها به ویدیو و ریمیکس در سبک‌های متنوع

گوگل با افزودن قابلیت‌های هوش مصنوعی به اپلیکیشن فوتوز، کاربران را قادر می‌سازد تا عکس‌های خود را به ویدیوهای کوتاه تبدیل کنند و آنها را در سبک‌هایی مثل انیمه، کمیک، اسکیس و انیمیشن سه‌بعدی «ریمیکس» کنند.

گوگل فوتوز بروزرسانی مهمی دریافت کرده است که شامل ویژگی‌های جدید مبتنی بر هوش مصنوعی برای خلاق‌تر کردن خاطرات تصویری کاربران است. حالا کاربران می‌توانند عکس‌های خود را به ویدیوهای کوتاه تبدیل کنند و یا آنها را در سبک‌های هنری متنوعی مانند انیمه، کمیک، اسکیس و انیمیشن سه‌بعدی بازسازی کنند.

این امکانات جدید در یک تب جدید به نام «Create» متمرکز شده‌اند که ابزارهای خلاقانه دیگر مثل ساخت کلاژ و ویدیوهای هایلایت را نیز در خود جای داده است. قابلیت تبدیل عکس به ویدیو با استفاده از مدل Veo 2 گوگل انجام می‌شود و کاربران می‌توانند با انتخاب یکی از دو حالت «حرکات ظریف» یا «I’m feeling lucky» عکس‌های خود را به ویدیوهایی شش ثانیه‌ای تبدیل کنند. این ویژگی نخستین بار در Gemini و یوتیوب نیز ارائه شده است.

قابلیت ریمیکس با کمک مدل هوش مصنوعی Imagen گوگل اجرا می‌شود و به کاربران اجازه می‌دهد ظرف چند ثانیه عکس‌های خود را در سبک‌های مختلف بازآفرینی کنند. این ویژگی‌ها در حال حاضر برای کاربران آمریکایی در سیستم‌عامل‌های اندروید و ios عرضه شده‌اند و تب «Create» نیز از آگوست در دسترس خواهد بود.

گوگل همچنین برای شناسایی تولیدات هوش مصنوعی، از واترمارک دیجیتال SynthID بر روی تصاویر و ویدیوهای ساخته شده استفاده می‌کند. این اقدام کمک می‌کند تا محتوای AI-generated به وضوح قابل تشخیص باشد.

این بروزرسانی‌ها هم‌زمان با ابزارهای مشابهی برای یوتیوب Shorts معرفی شده‌اند که امکانات مشابه برای تبدیل عکس به ویدیو و افکت‌های هوش مصنوعی دارند و قرار است نسخه Veo 3 نیز طی تابستان ارائه شود. این پیشرفت‌ها هوش مصنوعی را به دست طیف وسیع‌تری از کاربران می‌رسانند و اجازه می‌دهند حتی کسانی که تخصص کمتری در استفاده از AI دارند، خلاقیت بیشتری با تصاویر خود داشته باشند.

این قابلیت‌ها هنوز در مرحله آزمایشی هستند و گوگل از کاربران بازخورد می‌خواهد تا عملکرد آنها را بهبود ببخشد. از این جهت، گوگل فوتوز با این فناوری‌ها به یکی از محبوب‌ترین و پیشرفته‌ترین پلتفرم‌های مدیریت و ویرایش عکس و خاطرات دیجیتال تبدیل شده است.

راهنمای کامل امنیت هوش مصنوعی: از نقض داده تا سوگیری در تصمیم‌گیری

در حالی که ChatGPT بهره‌وری را افزایش می‌دهد، خطرات امنیتی آن از نشت داده‌های محرمانه تا تولید اطلاعات نادرست—می‌تواند اعتبار و امنیت سازمان شما را تهدید کند. در این مقاله، ۶ تهدید پنهان را فاش می‌کنیم و راهکارهای عملی برای مقابله با آنها ارائه می‌دهیم.

استفاده از هوش مصنوعی در محیط کار به یک امر متداول تبدیل شده است، به‌طوری که عدم استفاده از آن ممکن است باعث عقب‌افتادگی از رقبا شود. با این حال، ابزارهای هوش مصنوعی مانند ChatGPT در صورت استفاده نادرست می‌توانند تهدیدات امنیتی جدی ایجاد کنند.

درک خطرات پنهان این فناوری، از نقض حریم خصوصی تا سرقت مالکیت فکری، ضروری است. در اینجا شش ریسک کلیدی را بررسی می‌کنیم که باید در محیط کاری مورد توجه قرار گیرند.

۱. خطرات نقض حریم خصوصی
یکی از بزرگترین چالش‌های استفاده از ابزارهای هوش مصنوعی در محیط کار، افشای ناخواسته اطلاعات حساس است. این اطلاعات ممکن است شامل داده‌های مشتریان، اسناد داخلی یا ایده‌های اختصاصی شرکت باشد.

به‌عنوان مثال، ممکن است برای بهبود یک پیش‌نویس قرارداد یا طرح اختراع، آن را برای ویرایش به یک ابزار هوش مصنوعی ارسال کنید. اما با این کار، کنترل کامل بر سرنوشت آن اطلاعات را از دست می‌دهید. برخی ارائه‌دهندگان، حساب‌های سازمانی با قابلیت حفظ حریم خصوصی ارائه می‌دهند، اما سیاست‌های آنها ممکن است تغییر کند یا تحت تأثیر قوانین استثنایی قرار گیرد.

نکته کلیدی این است که هوش مصنوعی ممکن است داده‌های شما را پردازش و در پاسخ به درخواست‌های دیگر کاربران بازتولید کند. این موضوع می‌تواند منجر به نقض مقرراتی مانند قانون HIPAA (حفاظت از داده‌های سلامت) یا GDPR (مقررات عمومی حفاظت از داده‌های اتحادیه اروپا) شود و جریمه‌های سنگینی برای سازمان به همراه داشته باشد.

راهکار:
• از حساب‌های سازمانی اختصاصی (مانند ChatGPT Enterprise) استفاده کنید.
• از وارد کردن داده‌های حساس در ابزارهای عمومی خودداری نمایید.

۲. انتشار اطلاعات نادرست
هوش مصنوعی بر اساس الگوهای داده‌ای آموزش دیده است و صحت اطلاعات ارائه‌شده را تضمین نمی‌کند. گاهی اوقات، این سیستم‌ها دچار "توهم" (Hallucination) می‌شوند و اطلاعاتی ساختگی اما باورپذیر تولید می‌کنند، مانند منابع جعلی یا داده‌های نادرست.

حتی در محاسبات ساده، ممکن است خطاهایی مانند اعمال نادرست فرمول‌ها یا ارائه نتایج اشتباه رخ دهد. اگر بدون بررسی، خروجی هوش مصنوعی را در گزارش‌ها یا ارائه‌ها استفاده کنید، ممکن است اعتبار حرفه‌ای شما و سازمانتان خدشه‌دار شود.

راهکار:
• همواره خروجی هوش مصنوعی را از منابع معتبر تأیید کنید.
• از ابزارهای هوش مصنوعی صرفاً به‌عنوان مکملی برای تحقیقات استفاده نمایید.

۳. سوگیری در پاسخ‌های هوش مصنوعی
مدل‌های هوش مصنوعی بر پایه داده‌های گسترده آموزش می‌بینند که ممکن است حاوی تعصبات انسانی باشند. برخی شرکت‌ها سعی کرده‌اند این سوگیری‌ها را کاهش دهند، اما این تلاش‌ها همیشه موفقیت‌آمیز نبوده‌اند.

به‌عنوان مثال، اگر از یک چت‌بات برای غربالگری متقاضیان شغلی استفاده شود، ممکن است ناخواسته نامزدهایی از گروه‌های خاص را حذف کند. این مسئله علاوه بر آسیب به افراد، می‌تواند سازمان را با پیگرد قانونی مواجه سازد.

راهکار:
• پاسخ‌های هوش مصنوعی را از نظر سوگیری احتمالی بررسی کنید.
• در تصمیم‌گیری‌های حساس، به‌صورت ترکیبی از هوش مصنوعی و قضاوت انسانی استفاده نمایید.

۴. انحراف مکالمه و تأثیر آن بر تصمیم‌گیری
هرچه بیشتر با یک ابزار هوش مصنوعی تعامل داشته باشید، پاسخ‌های آن بیشتر تحت تأثیر گفت‌وگوهای قبلی شما قرار می‌گیرد. این پدیده، "رانش مکالمه" (Conversation Drift) نامیده می‌شود.

مثلاً اگر به‌عنوان یک مدیر منابع انسانی، قبلاً از ChatGPT درباره تجربه منفی با یک کارمند پرسیده باشید، ممکن است پاسخ‌های بعدی آن تحت تأثیر این پیش‌زمینه قرار گیرد و توصیه‌های ناعادلانه ارائه دهد.

راهکار:
• از ابزارهای هوش مصنوعی به‌عنوان یک مشاور بی‌طرف استفاده کنید، نه یک تصمیم‌گیرنده نهایی.
• در صورت نیاز، چت‌های جدید را بدون تاریخچه قبلی آغاز نمایید.

۵. خطاهای انسانی در استفاده از ابزارها
گاهی اوقات کاربران به‌اشتباه تصور می‌کنند مکالماتشان خصوصی است، در حالی که ممکن است به‌صورت عمومی نمایش داده شود. به‌عنوان مثال، متا (Meta) اخیراً یک اپلیکیشن هوش مصنوعی راه‌اندازی کرد که به‌طور ناخواسته پرسش‌های کاربران را در معرض دید عموم قرار داد.

اگر در یک جلسه کاری، ابزار یادداشت‌برداری هوش مصنوعی به‌صورت تصادفی روشن بماند و مکالمات خصوصی ضبط شود، ممکن است اطلاعات محرمانه فاش گردد و عواقب جدی برای شرکت داشته باشد.

راهکار:
• تنظیمات حریم خصوصی ابزارها را به‌طور منظم بررسی کنید.
• کارکنان را در مورد خطرات احتمالی آموزش دهید.

۶. نقض حقوق مالکیت فکری
اگر از هوش مصنوعی برای تولید محتوای خلاقانه (مانند تصاویر، متون یا موسیقی) استفاده کنید، ممکن است ناخواسته از آثار دارای حق نشر تقلید شود. پرونده‌های حقوقی متعددی، از جمله شکایت نیویورک تایمز علیه OpenAI و دیزنی علیه Midjourney، نشان‌دهنده حساسیت این موضوع است.

راهکار:
• قبل از استفاده تجاری از محتوای تولیدشده توسط هوش مصنوعی، با تیم حقوقی مشورت کنید.
• از ابزارهایی استفاده کنید که داده‌های آموزشی آنها فاقد محتوای دارای حق نشر باشد.

جمع‌بندی
هوش مصنوعی ابزاری قدرتمند است، اما استفاده نادرست از آن می‌تواند تهدیدات امنیتی و حقوقی جدی ایجاد کند. با رعایت پروتکل‌های امنیتی و افزایش آگاهی کارکنان، می‌توان از مزایای این فناوری بدون مواجهه با ریسک‌های غیرضروری بهره برد.

ابزار هوش مصنوعی جدید YouTube Shorts؛ تبدیل عکس‌ها به ویدیوهای کوتاه و افکت‌های نوآورانه

YouTube Shorts با افزودن ابزاری مبتنی بر هوش مصنوعی، امکان تبدیل عکس‌های ثابت به ویدیوهای شش ثانیه‌ای و استفاده از افکت‌های متنوع خلاقانه را برای سازندگان محتوا فراهم کرده است.

این شبکه اجتماعی ویدیویی قابلیت‌های تازه‌ای برای سازندگان محتوای Shorts معرفی کرده است که شامل ابزاری است برای تبدیل عکس‌های موجود در گالری کاربران به ویدیوهای کوتاه شش ثانیه‌ای با حرکات و انیمیشن‌های جذاب.

کاربران پس از انتخاب عکس، می‌توانند از بین پیشنهاد‌های مرتبط با تصویر، گزینه‌ای مانند «حرکات ظریف» یا «I’m feeling lucky» را انتخاب کرده و عکس را به ویدیو تبدیل کنند.

یوتیوب نمونه‌ای از این قابلیت را با تبدیل تصویر یک چراغ راهنمایی عابر پیاده به یک ویدیوی کوتاه نمایش می‌دهد که نشان مرد متحرک در تصویر به شکل رقصنده زوم می‌شود و جان می‌گیرد. این ویژگی مشابه ابزارهای مشابهی است که در جمینای گوگل و اپ Edits شرکت متا وجود دارد.

این ابزار در حال حاضر به تدریج در ایالات متحده، کانادا، استرالیا و نیوزیلند در دسترس قرار می‌گیرد و برنامه‌ای برای توسعه به کشورهای بیشتر طی امسال وجود دارد. در کنار این قابلیت، یوتیوب افکت‌های جدید هوش مصنوعی را هم ارائه کرده که به کاربران اجازه می‌دهد نقاشی‌ها و سلفی‌های خود را به تصاویر هنری یا ویدیوهایی مانند شنا کردن زیر آب یا جفت شدن با یک فرد هم‌شکل تبدیل کنند. این افکت‌ها از طریق بخش «Effects» در دوربین Shorts و زیر تب «AI» قابل دسترسی هستند.

تمام این امکانات توسط مدل هوش مصنوعی Veo 2 گوگل پشتیبانی می‌شوند و خروجی‌ها با واترمارک دیجیتال SynthID و برچسب‌های شفاف مشخص می‌گردند تا نشانه‌گذاری محتواهای تولیدشده با هوش مصنوعی حفظ شود.

همچنین یوتیوب بخشی به نام AI Playground ایجاد کرده که مرکز دسترسی به ابزارهای مختلف هوش مصنوعی، نمونه‌های الهام‌بخش و راهنمای پرشده با دستورالعمل‌هاست؛ این بخش هم اکنون برای کاربران در چند کشور مذکور فعال است.

در آینده نزدیک، مدل Veo 3 با قابلیت تولید همزمان ویدیو و صدا به Shorts اضافه خواهد شد تا تجربه تولید محتوای ویدیویی با هوش مصنوعی ارتقا یابد.
این اقدامات یوتیوب را به یکی از پیشروان استفاده از هوش مصنوعی در پلتفرم‌های محتوایی تبدیل کرده است و امکان تولید سریع‌تر و جذاب‌تر ویدیوهای کوتاه را برای میلیاردها کاربرش فراهم کرده است.