مدل GPT-4 کاربران را فریب می‌دهد

یک مطالعه جدید نشان داده است که مردم در تشخیص GPT-4 با انسان‌ها تقلا می‌کنند و مدل هوش مصنوعی جدید GPT-4 تقریباً در ۵۰ از موارد از عملکرد انسانی پیشی می‌گیرد.

مدل‌ GPT-4 به دلیل توانایی ذاتی خود در سنجش اعلان‌های نوشتاری و دریافت پاسخ‌های مناسب به چندین زبان، کاربران را شگفت‌زده کرده است. به نظر می‌رسد کیفیت این ربات بیشتر مردم را گیج می‌کند، به طوری که به سختی می‌توانند بین یک ربات و یک انسان تمایز قائل شوند.

این یک سردرگمی بزرگ است، زیرا برخی از نتایج تولیدشده توسط ربات بسیار واقعی به نظر می‌رسند.

کاوش هوش شبه‌انسانی GPT-4
این افزایش هیاهو باعث شد که محققان دانشگاه کالیفرنیا سن‌دیگو(UC San Diego) به این معضل بپردازند. آنها آزمایش معروف تورینگ را که به نام «آلن تورینگ» دانشمند مشهور نام‌گذاری شده است، انجام دادند. هدف از این آزمایش تعیین میزان توانایی یک ماشین از سطح هوشی مانند یک انسان بود.

محققان یافته‌های خود را بر روی سرور arXiv دانشگاه کرنل منتشر کردند و به این نتیجه رسیدند که افراد هنگام تعامل با یک ربات، تمایز بین مدل GPT-4 و عامل انسانی را دشوار می‌دانند.

کامرون جونز، سرپرست این مطالعه برای اولین بار این مطالعه را تحت نظارت یک پروفسور علوم شناختی در دانشگاه کالیفرنیا سن‌دیگو انجام داد.

جونز گفت: در هفته اول چند مقاله کلاسیک در مورد آزمون تورینگ خواندیم و در مورد اینکه آیا یک مدل زبانی بزرگ(LLM) می‌تواند آن را قبول کند و اینکه آیا می‌تواند مهم باشد یا خیر، بحث کردیم. می‌توانم بگویم تاکنون هیچ‌کس در این سطح تلاش نکرده بود، بنابراین تصمیم گرفتم آزمایشی بسازم تا آن را به عنوان پروژه کلاس خود بررسی کنم و سپس اولین آزمایش اکتشافی عمومی را اجرا کردیم.

نتایج این مطالعه جالب بود. این پژوهش نشان داد که مدل هوش مصنوعی GPT-4 تقریباً در ۵۰ درصد از تعاملات به راحتی می‌تواند از انسان پیشی بگیرد.

تائید پاسخ‌های انسانی هوش مصنوعی
پژوهشگران در مورد نتایج آزمایش اول تردید داشتند، بنابراین تصمیم گرفتند با انجام یک آزمایش دوم آن را اثبات کنند. کامرون جونز می‌گوید یک نسخه آنلاین از یک بازی دو نفره ایجاد کردیم که به شرکت‌کنندگان انسانی اجازه می‌دهد با یک انسان یا یک مدل هوش مصنوعی تعامل داشته باشند.

در این بازی، یک «بازپرس» که می‌تواند یک انسان یا یک عامل هوش مصنوعی باشد، با یک «شاهد» تعامل داشت. بازپرس به سادگی سؤالاتی را می‌پرسید و تعیین می‌کرد که آیا یک انسان یا یک مدل هوش مصنوعی پاسخ می‌دهد.

اغلب این مکالمات پنج دقیقه طول می‌کشید و بازپرس در پایان فاش می‌کرد که آیا این یک مدل هوش مصنوعی است یا نه. شرکت‌کنندگان اجازه داشتند در مورد هر چیزی که می‌خواهند، به مدت پنج دقیقه بدون توهین صحبت کنند.

جونز می‌گوید: اگرچه انسان‌های واقعی در واقع موفق‌تر بودند و بازپرس‌ها را در دو سوم مواقع متقاعد کردند که انسان هستند، اما نتایج ما نشان می‌دهد که در دنیای واقعی، افراد ممکن است نتوانند به طور قابل اعتماد تشخیص دهند که با یک انسان صحبت می‌کنند یا یک هوش مصنوعی.

محققان سه مدل زبانی بزرگ مختلف را به عنوان شاهد بالقوه به کار گرفتند که مدل‌های GPT-4، GPT 3.5 و ELIZA را شامل می‌شد. نتایج نشان داد که کاربران می‌توانند مدل‌های ELIZA و GPT-3.5 را شناسایی کنند، اما در مورد GPT-4 این چنین نیست.

واتس‌اپ قابلیت‌های پیشرفته‌تری برای تماس تصویری عرضه کرد

این سیستم جدید فشرده‌سازی قرار است که نویز و اکو را حذف نماید، که برای محیط‌های پر سر و صدا مفید است. همچنین، در شبکه‌های پرسرعت، امکان برقراری تماس‌های ویدیویی با وضوح بالاتر وجود خواهد داشت.

واتس‌اپ در حال ارتقای تماس ویدیویی خود با ویژگی اشتراک‌گذاری صفحه نمایش جدید، تعداد شرکت‌کنندگان بیشتر و اسپیکر اسپاتلایت (Speaker Spotlight) است، با این هدف که پلتفرم را به رقیبی برای زوم، فیس‌تایم و گوگل میت تبدیل کند.

قابلیت اشتراک‌گذاری صفحه می‌تواند برای تماشای ویدیوها در کنار یکدیگر، اشتراک‌گذاری محتوایی که به راحتی قابل اشتراک‌گذاری نیست و یا عیب‌یابی دستگاه‌های والدینتان مفید واقع شود. همچنین امکان به‌اشتراک‌گذاری صدا نیز فراهم شده است تا بتوانید به راحتی با دیگران در حالی که به صفحه‌نمایش آنها نگاه می‌کنید چت کنید.

این پلتفرم متعلق به متا همچنین تعداد شرکت‌کنندگان خود را در تماس‌های ویدیویی به 32 نفر افزایش داده است، که افزایشی قابل‌توجه نسبت به محدودیت قبلی هشت نفر است که برای اولین بار در سال 2020 با شروع قرنطینه‌های همه‌گیری شروع شد.

اسپیکر اسپاتلایت یکی دیگر از تغییرات به‌روزرسانی واتس‌اپ است (که در حال حاضر یک ویژگی استاندارد در بسیاری از سایر پلتفرم‌های تماس به شمار می‌رود). در یک تماس گروهی، فردی که صحبت می‌کند ابتدا در ردیف شرکت‌کنندگان ظاهر می‌شود و تصویر او برجسته می‌شود و به این ترتیب تشخیص اینکه چه کسی میکروفون را دارد آسان‌تر می‌شود.

واتس‌اپ همچنین به تغییر اخیر خود به کدک Mlow برای تماس‌های واضح‌تر اشاره کرده است. این سیستم جدید فشرده‌سازی قرار است که نویز و اکو را حذف نماید، که برای محیط‌های پر سر و صدا مفید است. همچنین، در شبکه‌های پرسرعت، امکان برقراری تماس‌های ویدیویی با وضوح بالاتر وجود خواهد داشت.

رونمایی دیپ‌مایند از موش مجازی با مغز مصنوعی

دیپ‌مایند، بخش هوش مصنوعی گوگل، از یک موش رایانه‌‌ای پیشگامانه رونمایی کرده که قادر است مانند یک موش واقعی به کمک یک مغز مصنوعی حرکت کند.

این موش مجازی به گفته پژوهشگرانی که آن را ساخته‌اند، از «شگفتی‌های تکاملی» یعنی توانایی حرکت حیوانات که از طریق فرایندهای تکاملی به دست آمده‌اند الگوبرداری می‌کند.

این پروژه در پی همکاری میان دانشمندان علوم اعصاب در دانشگاه هاروارد ایالات متحده و پژوهشگران دیپ‌مایند در بریتانیا حاصل شد که با هم کار کردند تا با استفاده از داده‌های حرکتی ثبت‌شده از موش‌های واقعی، این موجود دیجیتالی را به طور دقیق شبیه‌سازی کنند.

برای آموزش شبکه عصبی مصنوعی، از داده‌های با وضوح بالا استفاده شد که در یک شبیه‌ساز فیزیکی به عنوان مغز موش عمل می‌کرد تا آثار گرانش و سایر نیروهای دنیای واقعی را تقلید کند.

بنس اولوسکی، استاد بخش زیست‌شناسی ارگانیسمی و تکاملی هاروارد که پژوهشگرانی را که با دیپ‌مایند همکاری می‌کردند سرپرستی کرد، گفت: «دیپ‌مایند به منظور آموزش عوامل بیوشیمیایی برای حرکت در محیط‌های پیچیده، کانال ارتباطی ساخته بود.»

«ما بدون دیپ‌مایند واقعا و به‌وضوح، برای اجرای شبیه‌سازی‌هایی از این دست و آموزش این شبکه‌ها امکانات کافی در اختیار نداریم.»

به گفته پروفسور اولوسکی، این مدل دیجیتالی بیومکانیکی شبیه به واقعی نشان‌دهنده یک پیشرفت بزرگ در درک این است که مغز چگونه حرکت را کنترل می‌کند.

این پیشرفت همچنین می‌تواند به‌عنوان پایه‌ای برای سایر شبیه‌سازی‌های هوش مصنوعی باشد که قادر است راه‌های جدیدی را برای تحقیقات علوم اعصاب باز کند؛ مانند اینکه چگونه مدارهای عصبی در بیماری‌ها تضعیف می‌شوند و مغزهای واقعی چگونه رفتار پیچیده ایجاد می‌کنند.

متیو بوتوینیک، مدیر ارشد تحقیقات دیپ‌‌مایند گوگل، گفت: «ما از چالش ساخت عوامل هوش‌ مصنوعی بدن‌مند و تجسدیافته چیزهای زیادی آموخته‌ایم: سیستم‌های هوش مصنوعی که نه‌تنها باید هوشمندانه فکر کنند، بلکه باید آن تفکر را در یک محیط پیچیده به عمل فیزیکی تبدیل کنند.»

«به نظر می‌رسید که استفاده از همین رویکرد در زمینه علوم اعصاب ممکن است برای شناخت پیدا کردن از رفتار و عملکرد مغز سودمند باشد.»

گوگل با هوش مصنوعی، گوشی‌های اندرویدی را «ضد سرقت» می‌کند

گوگل قصد دارد با استفاده از هوش مصنوعی، گوشی‌های اندرویدی را «ضد سرقت» کند.

این قابلیت که از ژوئیه برای کاربران برزیلی گوشی‌های اندروید ۱۰ و نسخه های بالاتر در دسترس خواهد بود، از هوش مصنوعی برای تشخیص سیگنال ها و رفتارهای مرتبط با سرقت گوشی استفاده می کند و در چنین شرایطی، صفحه گوشی را قفل می کند.

سه نوع قفل در این قابلیت وجود دارد: نخست آنکه هوش مصنوعی زمانی که گوشی احتمالا به سرقت رفته باشد، صفحه را قفل می کند. گزینه دوم این است که کاربر از راه دور و با استفاده از دستگاه دیگری می تواند گوشی خود را قفل کند. گزینه سوم نیز قفل خودکار گوشی پس از مدتی عدم دسترسی به اینترنت است.

مشکل سرقت گوشی در برزیل رو به افزایش است. بر اساس آمار رسمی، تعداد گوشی های مسروقه در این کشور در سال ۲۰۲۲ نسبت به سال قبل ۱۶.۶ درصد افزایش یافت و به حدود یک میلیون دستگاه رسید.

دولت برزیل پیشتر اپلیکیشن "سلولار سگورو" را برای گزارش و مسدود کردن گوشی های مسروقه راه اندازی کرده بود. تا آوریل گذشته حدود ۲ میلیون نفر در این اپ ثبت نام کرده و ۵۰ هزار گوشی نیز از طریق آن مسدود شده است.

قابلیت جدید گوگل که در گام نخست در برزیل آزمایش می شود، قرار است به تدریج برای کاربران کشورهای دیگر نیز عرضه شود. استفاده از هوش مصنوعی برای شناسایی سرقت گوشی می تواند کمک شایانی برای مقابله با این معضل باشد.

سرقت گوشی‌های همراه به دلیل ارزش و تقاضای بالای این محصولات، مشکلی فراگیر در بسیاری از کشورهاست.

یک تراشه جدید 100 میلیارد پیکسل را در 6 نانوثانیه پردازش می‌کند

وظایف لبه، مانند رانندگی خودران، به خاطر تبدیل نوری به الکترونیکی چند میلی‌ثانیه‌ای با مشکل کندی مواجه هستند.

محققان دانشگاه تسینگهوا در چین یک تراشه فوتونیکی جدید ساخته‌اند که تصاویر را در ظرف چند نانوثانیه پردازش می‌کند، انتقال می‌دهد و بازسازی می‌کند.

و به نقل از InterestingEngineering، این تراشه این دستاورد بزرگ را با رفع نیاز به تبدیل داده‌های نوری به الکترونیکی، که در تراشه‌های متداول انجام می‌شود، محقق می‌کند.

بینایی ماشین (Machine vision) زمینه‌ای در حال تکامل است که در آن دوربین‌ها، حسگرها و الگوریتم‌ها به صورت پشت سر هم کار می‌کنند تا دنیای اطراف خود را بفهمند و ماموریت‌های خاصی را به انجام برسانند. در گذشته، فناوری بر انتقال این داده‌ها در فواصل طولانی تکیه داشت، تا به مکانی برسد که بتوان آن را تجزیه و تحلیل کرد و پاسخ‌های مناسب گرفته و اجرا کرد.

لو فانگ، دانشیار دپارتمان مهندسی الکترونیک در دانشگاه تسینگ‌هوا در چین می‌گوید: «جهان در حال ورود به عصر هوش مصنوعی است، اما هوش مصنوعی بسیار زمان‌بر و انرژی‌بر است. در دنیای کنونی که به سرعت در حال تغییر است، بینایی ماشین اکنون نیازمند پردازش داده‌ها بر روی خود یک دستگاه انجام شود؛ این فرایند که رایانش لبه نامیده می‌شود به تسریع تصمیم‌گیری کمک کند.

فانگ افزود: «رشد دستگاه‌های لبه‌ای، همچون گوشی‌های هوشمند، خودروهای هوشمند و لپ‌تاپ‌ها هوشمند، منجر به رشد انفجاری داده‌های تصویری برای پردازش، انتقال و نمایش داده شده است. ما در حال کار برای پیشبرد بینایی ماشین از طریق ادغام سنجش و رایانش در حوزه نوری هستیم».

حذف تبدیل‌های نوری به الکترونیکی
وظایف لبه، مانند رانندگی خودران، به خاطر تبدیل نوری به الکترونیکی چند میلی‌ثانیه‌ای با مشکل کندی مواجه هستند.

فانگ گفت: «ضبط، پردازش و تجزیه و تحلیل تصاویر برای وظایف مبتنی بر لبه مانند رانندگی خودران در حال حاضر به دلیل لزوم تبدیل نوری به الکترونیکی به سرعت‌های در سطح میلی‌ثانیه محدود شده است».

در حال حاضر، تصاویر ضبط شده توسط دستگاه‌های بینایی ماشین باید از ماهیت نوری خود به نسخه‌های الکترونیکی منتقل شوند تا کامپیوترها بتوانند این داده‌ها را درک کنند.

این پژوهشگران، تحت هدایت فانگ، یک تراشه آرایه رایانشی موازی نوری (OPCA) با یک آرایه رایانشی حسگر ساخته شده با استفاده از تشدیدکننده‌های حلقه‌ای ساخته‌اند. این طراحی به این تراشه فوتونی این امکان را می‌دهد تا یک تصویر نوری را به یک نمایش دو بعدی از شدت نور خود تبدیل کند که می‌تواند با استفاده از یک آرایه میکرو لنز به تراشه هدایت شود.

تراشه OPCA دارای پهنای باند پردازشی تا صد میلیارد پیکسل و زمان پاسخگویی تنها شش نانوثانیه است.

رئیس سابق آژانس امنیت ملی آمریکا عضو هیئت مدیره Openai می‌شود

«تجربه بی‌نظیر ژنرال ناکاسون در حوزه‌هایی مانند امنیت سایبری به راهنمایی OpenAi در جهت تحقق مأموریتش در اطمینان یافتن از مفید واقع شدن هوش عمومی جامع برای تمام بشریت کمک خواهد کرد».

اوپن‌ای‌آی اعلام کرد که پل ناکاسون، رئیس سابق آژانس امنیت ملی (NSA) و ژنرال بازنشسته، را به هیات مدیره و همچنین کمیته ایمنی و امنیتی تازه تشکیل‌شده خود اضافه می‌کند.

این خبر از آن جهت واجد اهمیت است که اوپن‌ای‌آی به دنبال متقاعد کردن کسانیست که تردید دارند این شرکت، در پیگیری هدفش در تولید سوپر هوش، اقدامات کافی را برای کسب اطمینان از ایمن بودن مدل‌هایش انجام می‌دهد یا نه.

ناکاسون، که علاوه بر زمان حضورش در صدر NSA فرماندهی سایبری ارتش آمریکا را نیز راهبری می‌کرد، تجربه و تخصص امنیت سایبری و امنیت ملی را به هیات مدیره این شرکت می‌آورد.

برت تیلور، رییس هیات مدیره اوپن‌ای‌آی، در بیانیه‌ای گفت: «هوش مصنوعی این پتانسیل را دارد که تأثیرات مثبتی در زندگی افراد داشته باشد، اما تنها در صورت ایجاد و استقرار امن این نوآوری‌ها می‌تواند این پتانسیل را برآورده کند».

تیلور افزود: «تجربه بی‌نظیر ژنرال ناکاسون در حوزه‌هایی مانند امنیت سایبری به راهنمایی OpenAi در جهت تحقق مأموریتش در اطمینان یافتن از مفید واقع شدن هوش عمومی جامع برای تمام بشریت کمک خواهد کرد».

در همین حال، سناتور مارک وارنر به که اضافه کردن ناکاسون به هیات مدیره، با توجه به اینکه وی پس از ترک خدمات دولتی در اوایل سال جاری گزینه‌های زیادی داشت، یک «دریافت عظیم» است. وارنر گفت: «هیچکس در جامعه امنیتی [آمریکا] مورد احترام‌تر از وی نیست».

وارنر، که رئیس کمیته اطلاعات سنا است، گفت که ناکاسون تخصص لازم را در مورد امنیت سایبری به طور عام و همچنین به طور خاص در مورد امنیت انتخابات و همچنین رقابت با چین به ارمغان می‌آورد. از دیدگاه وی، ناکاسون «دید بسیار واقع‌گرایانه‌ای درباره این واقعیت دارد که چین نوع دیگری از چالش را پیش می‌کشد».

این حلقه هوشمند جدید مربی سلامت هوش مصنوعی است

این انگشتر در سه رنگ مشکی، نقره‌ای و طلایی عرضه می‌شود. حسگرهای قسمت داخلی حلقه اطلاعاتی را در مورد ضربان قلب، دمای بدن، اکسیژن خون، تغییرپذیری ضربان قلب و استرس در حالت استراحت برمی‌گردانند.

ExerRing جدیدترین حلقه هوشمندی است که به پلتفرم تامین مالی جمعی Kickstarter رسیده است. این شرکت وعده می‌دهد که از هوش مصنوعی و یادگیری عمیق استفاده کند تا به کاربرانش کمک کند از امکانات آن در مورد بدن و عملکرد خود بیشترین بهره را ببرید.

این حلقه هوشمند زمانی که روی انگشت شما قرار می‌گیرد، همه چیز از ضربان قلب گرفته تا استرس، دمای بدن و خواب شما را ردیابی می‌کند. با این حال، چندین ویژگی غیر معمول نیز دارد که آن را از رقبا متمایز می‌‌کند.

حلقه هوشمند به برنامه Exerchain در گوشی شما متصل می‌شود و دارای یک مربی هوش مصنوعی است که به شما برای رسیدن به اهداف کمک می‌کند. این نرم‌افزار نشان می‌دهد که چه زمانی باید ورزش کنید و شدت و کیفیت آن را توصیه می‌کند، به علاوه جزئیاتی در مورد نحوه مقابله با استرس و بهبود خواب را نیز به شما ارائه می‌دهد.

با این حال، برخی از ویژگی‌های هوش مصنوعی، مانند برنامه‌های غذایی، تنها در صورتی باز می‌شوند که کمپین Kickstarter ExerRing اهداف خاصی را پشت سر بگذارد.

ExerRing دارای کنترل‌های لمسی بر روی سطح خود است، که می‌توانید پخش موسیقی را در تلفن خود کنترل کنید و شاتر دوربین را نیز فعال کنید. به علاوه شامل یک ویژگی اعلان تبلیغ نیز می‌شود، اما به نظر می‌رسد محدود به هشدارهای برنامه Exerchain است.

علاوه بر این، بر خلاف اکثر حلقه‌های هوشمند، ExerRing از فولاد ضد زنگ به جای تیتانیوم ساخته شده است و دارای رتبه IP68 مقاومت در برابر آب و گرد و غبار است. وزن آن 4.5 گرم و باریک با ضخامت 2.3 میلی متر است که از برخی مدل‌های حلقه اورا باریک تر است.

تخمین زده می‌شود که باتری این حلقه، با یک بار شارژ کامل، بین چهار تا شش روز دوام بیاورد، که عملکردی مشابه با حلقه Slim دایره‌ای دارد.

این انگشتر در سه رنگ مشکی، نقره‌ای و طلایی عرضه می‌شود. حسگرهای قسمت داخلی حلقه اطلاعاتی را در مورد ضربان قلب، دمای بدن، اکسیژن خون، تغییرپذیری ضربان قلب و استرس در حالت استراحت برمی‌گردانند.
قیمت ExerRing متفاوت است، ارزان‌ترین قیمت این حلقه 119 دلار است که بسته به قابلیت‌ها، تا 139 دلار و 159 دلار نیز افزایش می‌یابد. همچنین باید توجه داشت که یکی از اهداف توسعه، "اشتراک مادام العمر" است، که نشان می‌دهد نوعی مدل اشتراک بخشی از ExerRing برای کسانی خواهد بود که ممکن است آن را خارج از Kickstarter خریداری کنند.

انتظار می‌رود که ExerRing در سپتامبر 2024 وارد بازار شود.

توسعه روبات‌هایی با پوست الکترونیکی و ماهیچه‌های مصنوعی انسان

دانشمندان دانشگاه کارولینای شمالی روبات‌های نرم مجهز به پوست الکترونیکی و ماهیچه‌های مصنوعی ساخته‌اند که می‌توانند محیط اطراف خود را حس کنند و حرکات خود را در زمان واقعی تطبیق دهند.

این نوآوری که دانشمندان در یک مقاله تحقیقاتی با عنوان «ربات‌های حسی الهام‌گرفته از پوست برای ایمپلنت‌های الکترونیکی» ارائه کردند، نوید انقلابی در تشخیص و درمان پزشکی را می‌دهد.

روبات‌های نرم، پوست‌های الکترونیکی ساخته شده از موادی مانند نانوسیم‌های نقره و پلیمرهای رسانا را در یک پایه انعطاف‌پذیر برای تقلید از عملکردهای حسی پیچیده پوست طبیعی، ادغام می‌کنند و به روبات‌ها امکان می‌دهند تا حرکاتی مانند خم شدن، کشش و پیچش را در محیط‌‌های بیولوژیکی انجام دهند.

لین ژانگ، استاد بخش علوم فیزیکی کاربردی، با اشاره به اینکه ربات‌های نرم از اشکال طبیعی مانند ستاره‌های دریایی و غلاف‌های بذر الهام گرفته شده‌اند، گفت: «روبات‌های نرم به‌گونه‌ای طراحی شده‌اند که به آرامی به بافت‌ها بچسبند، استرس و آسیب احتمالی را کاهش دهند و می‌توانند ساختارهای خود را برای انجام وظایف مختلف به طور موثر تغییر دهند.

به گفته این سایت، ربات‌های حسی با انعطاف‌پذیری استثنایی مشخص می‌شوند که آن‌ها را برای مصارف پزشکی بسیار سازگار می‌سازد، زیرا می‌توانند شکل خود را متناسب با اندام‌های مختلف تغییر دهند و قابلیت‌های حسی و درمانی بهبود یافته را ارائه دهند.

این وب سایت توضیح می‌دهد که ربات‌ها می‌توانند به طور مداوم شرایط داخلی مانند حجم مثانه و فشار خون را کنترل کنند و درمان‌های فوری مانند تحریک الکتریکی را ارائه دهند.

وی خاطرنشان کرد: برخی از ربات‌ها را می‌توان برای نظارت و درمان بیماری‌های معده بلعید، مانند ربات Thera-Gripper که قابل بلعیدن است و به گونه‌ای طراحی شده است که برای نظارت بر میزان اسیدیته و ارائه دارو در مدت طولانی در معده باقی می‌ماند و در نهایت، نتایج درمان بیماری‌های دستگاه گوارش را بهبود می‌بخشد.

Thera-Gripper می‌تواند به آرامی به قلب متصل شود تا به طور مداوم فعالیت الکتروفیزیولوژیکی را کنترل کند، انقباضات قلب را اندازه‌گیری کند و برای تنظیم ضربان قلب تحریک الکتریکی ایجاد کند.

این سایت همچنین در مورد روباتی صحبت می‌کند که می‌تواند دور مثانه پیچیده شود، که می تواند آن را اندازه گیری کند و تحریک الکتریکی برای درمان بیش فعالی ارائه دهد، بنابراین مراقبت از بیمار و اثربخشی درمان را افزایش می‌دهد.

علاوه بر اینها، یک دستبند رباتیک می‌تواند به دور رگ‌های خونی بپیچد تا فشار خون را در زمان واقعی اندازه گیری کند و یک راه حل دقیق و غیر تهاجمی برای نظارت ارائه کند که احتمالاً درمان بیماری‌های مزمن را متحول می‌کند و به طور قابل توجهی نتایج بیماران را بهبود می بخشد.

رابین بی، محقق ارشد این مقاله گفت: «این رویکرد نوآورانه در طراحی رباتیک نه تنها دامنه تجهیزات پزشکی را گسترش می‌دهد، بلکه پتانسیل پیشرفت‌های آینده در تعامل هم افزایی بین روبات‌های نرم قابل کاشت و بافت‌های بیولوژیکی را تقویت می‌کند.

وی تاکید می کند که دانشمندان به دنبال دستیابی به سازگاری بیولوژیکی و پایداری طولانی مدت در محیط های فیزیولوژیکی پویا هستند.

کار محققان راه را برای توسعه ربات‌های سازگار و زیست سازگار که می‌توانند تشخیص و درمان بیماری را تغییر دهند، هموار می‌کند. ایجاد یک استاندارد جدید در فناوری مراقبت های بهداشتی.

آموزش: چگونه عکس‌ها و فیلم‌های اصلاح شده با هوش مصنوعی را تشخیص دهیم؟

تصاویر و ویدئوهایی که توسط هوش مصنوعی ویرایش شده‌اند نگرانی‌هایی را پیرامون محتوای منتشر شده در اینترنت ایجاد می‌کنند، اما دستورالعمل‌هایی وجود دارد که با پیروی از آنها می‌توان صحت یا عدم صحت آنها را دنبال کرد.

تصاویر تولید شده توسط هوش مصنوعی بهتر و بهتر می‌شوند، اما هنوز هم نشانه‌هایی وجود دارد که می‌توانید صحت و سقم آنها را بررسی کنید. لبه‌های اضافی، سبک‌های ناهماهنگ و کاراکترهای تار می‌توانند نشانه‌ای از ایجاد یا ویرایش محتوا توسط هوش مصنوعی باشند.

در گذشته، فناوری دیپ‌فیک کامل نبود و نشانه‌های واضحی از دستکاری بر جای می‌گذاشت. اما با بهبود هوش مصنوعی، فرآیند تشخیص جعلی بودن دشوارتر شده است و جستجوی الگوهای غیرعادی در ویدیوهای جعلی دیگر امکان پذیر نیست. با این حال، هنوز مواردی وجود دارد که باید به آنها توجه کرد.

به چهرها نگاه کنید
تغییر چهره یکی از رایج‌ترین ترفند دیپ‌فیک‌ها است. کارشناسان توصیه می‌کنند که لبه‌های صورت را با دقت نگاه کنید. آیا رنگ پوست صورت با بقیه سر و بدن مطابقت دارد؟ آیا لبه‌های صورت تیز هستند یا تار؟ و اگر مشکوک هستید که ویدیویی از صحبت کردن کسی تایید شده است، به دهان او نگاه کنید. آیا حرکات لب او دقیقاً با صدا و همچنین آنچه می‌شنوید مطابقت دارد؟ همچنین می‌توانید به دندان‌ها نگاه کنید. آیا دندان‌ها تا حدودی مبهم و ناسازگار با ظاهر واقعی آن است؟ همین امر در مورد حرکات غیر طبیعی چشم نیز صدق می‌کند.

براق الکترونیکی!
بسیاری از موارد تقلب‌ هوش مصنوعی، مخصوصاً تصاویر مربوط به افراد، دارای e-glow هستند که باعث می‌شود پوست فوق‌العاده براق به نظر برسد. همچنین، اگر عکس بیشتر شبیه یک نقاشی باشد تا یک عکس واقعی، احتمالاً جعلی است.

سازگاری سایه و نور
سوژه اغلب در فوکوس واضح است و به طور متقاعد کننده‌ای واقعی به نظر می‌رسد، اما عناصر موجود در پس زمینه ممکن است به اندازه کافی واقع گرایانه یا صیقلی نباشند. در نتیجه برای اطمینان بهتر است سازگاری سایه‌ها و نور را برای تشخیص خطاهای عکس هوش مصنوعی بررسی کنید.

دست و اندام
تعداد زیادی از عکس‌ها و ویدیوهای تولید شده توسط هوش مصنوعی کمی از شکل انسانی دور می‌شوند. مثلا در برخی از تصاویر، ممکن است از شش انگشت انسان یا تعداد بیشتری پا استفاده شود و برخی از دست‌ها ظاهری نامناسب و غیرمعمول داشته باشند. بنابراین عکس را به طور دقیق بررسی کنید تا متوجه موارد غیرعادی شوید.

استفاده از هوش مصنوعی
روش دیگر، استفاده از هوش مصنوعی برای مبارزه واقعی با خودش است. به عنوان مثال، مایکروسافت یک احراز هویت ایجاد کرده است که می‌تواند عکس‌ها یا ویدیوها را تجزیه و تحلیل کند تا در مورد دستکاری یا عدم دستکاری آن‌ها امتیاز کسب کند.

در همین زمینه، برنامه FakeCatcher اینتل از الگوریتم‌هایی برای تجزیه و تحلیل پیکسل‌ها در تصویر استفاده می‌کند تا تشخیص دهد واقعی یا جعلی هستند.

همچنین ابزارهای آنلاینی وجود دارد که در صورت دانلود فایل یا وارد کردن لینک به مورد مشکوک، می‌توانند محصولات تقلبی را شناسایی کنند. اما برخی از آنها فقط برای افراد خاص و نه برای عموم در دسترس است. این محدودیت به این دلیل است که کارشناسان نمی‌خواهند به کلاهبرداران و خرابکارها مزیت بیشتری در مسابقه دیپ‌فیک بدهند.

ادغام محصولات اپل با هوش مصنوعی

اپل امروز کنفرانس توسعه دهندگان ۲۰۲۴ خود غافلگیری‌های زیادی برای علاقه‌مندان داشت که سرخط اصلی آن ادغام هوش مصنوعی در محصولات این شرکت تحت عنوان سیستم اپل اینتلیجنس(Apple Intelligence) بود.

کنفرانس توسعه دهندگان اپل ۲۰۲۴(WWDC ۲۰۲۴) شب گذشته به صورت رسمی آغاز شد و سخنرانی آغازین آن بسیاری از انتظارات کاربران را برآورده کرد و از بسیاری از به‌روزرسانی‌های نرم‌افزاری پرده‌برداری کرد. تغییرات بزرگی که در iOS ۱۸ ، macOS Sequoia و watchOS ۱۱ ایجاد می‌شود که شامل پشتیبانی از RCS، یک برنامه رمزهای عبور جدید، یک برنامه ماشین حساب اصلاح‌شده برای آیفون و آیپد و مجموعه‌ای از ادغام‌های هوش مصنوعی در سراسر محصولات اپل به لطف سامانه «هوش اپل» یا Apple Intelligence است.

در ادامه به معرفی همه چیزهایی که در کنفرانس توسعه دهندگان اپل ۲۰۲۴ اعلام شده است می‌پردازیم.

هوش اپل
اپل امسال در کنفرانس توسعه دهندگان خود برنامه‌های خود را برای گنجاندن هوش مصنوعی در سیستم عامل‌های خود فاش کرد. این سیستم هوش مصنوعی مولد جدید که «هوش اپل» نامیده می‌شود، در iOS و iPad ۱۸ و macOS Sequoia در قالب ابزارهای عملی ظاهر می‌شود که اکثر مردم می‌توانند به طور منظم از آن استفاده کنند.

این ویژگی‌ها شامل ابزارهای نوشتاری جدید است که می‌تواند به شما در بازنویسی، تصحیح و خلاصه کردن مواردی مانند ایمیل‌ها و پیام‌های دیگر، ایموجی‌ها یا شکلک‌های اصلی و ایجاد تصویر و موارد دیگر کمک کند.

این ویژگی جدید به نام جیموجی(Gemoji) شامل ابزار تولید تصویر است که به کاربران اجازه می‌دهد با نوشتن توضیحات درباره آنچه می‌خواهند ظاهر شود، ایموجی‌های منحصر به فرد خود را ایجاد کنند.

سیری
سیری(دستیار هوشمند اپل) نیز اکنون از هوش مصنوعی بهره می‌برد که بخشی از آن توسط مدل‌های زبان بزرگ تامین می‌شود. اکنون علاوه بر درخواست از سیری برای حذف ایمیل یا ویرایش عکس‌ها، کاربران همچنین می‌توانند از این دستیار مجازی بخواهند مقالات و صفحات وب را در سافاری(مرورگر مخصوص اپل) خلاصه کند و حتی اطلاعات شخصی را از تصویر یک شناسه استخراج کند تا بتواند یک پرسشنامه آنلاین را پر کند.

این شرکت بر اهمیت «حریم خصوصی» با هوش اپل تأکید کرد که مواردی مانند استفاده از زبان طبیعی را برای جستجوی عکس‌هایی که فقط شامل اعضای خانواده یا دوستان خاص هستند را قادر می‌سازد.

اپل نشان داد که چگونه اکثر اقدامات هوش اپل بر روی دستگاه انجام می‌شود تا سیستم تا حد امکان بر حفظ حریم خصوصی متمرکز شود. برای درخواست‌هایی که نمی‌توانند به صورت محلی انجام شوند، وظیفه به مراکز پردازش اپل ارسال می‌شود.

این شرکت همچنین فضای ابری رایانش مخصوص خود را تحت عنوان Private Cloud Compute ایجاد کرد، قابلیتی که قرار است از فضای ابری برای پردازش پیشرفته‌تر هوش مصنوعی استفاده کند و در عین حال اطمینان ایجاد کند که داده‌های کاربران ایمن باقی می‌مانند.

گفتنی است که چت بات مشهور ChatGPT ساخته شرکت اوپن‌ای‌آی(OpenAI) نیز در هوش اپل ادغام شده است و به کاربران اجازه می‌دهد تا به اپل اجازه دهند درخواست‌ها را با ChatGPT به اشتراک بگذارد.

مثال‌های ارائه‌ شده عبارتند از درخواست ایده‌های آشپزی که حاوی مواد خاصی است یا درخواست مشاوره دکوراسیون در حین ارائه یک عکس از فضایی که نیاز به تغییر دکوراسیون دارد.

چت‌بات ChatGPT همچنین با ابزارهای نوشتن هوش مصنوعی که برای iOS ۱۸ و iPadOS ۱۸ در یک ویژگی جدید به نام Compose عرضه می‌شوند، کار خواهد کرد.

ادغام ChatGPT با iOS ۱۸، iPadOS ۱۸ و macOS Sequoia اواخر امسال عرضه خواهد شد و ظاهراً اپل قصد دارد در آینده از سایر مدل‌های هوش مصنوعی نیز پشتیبانی کند، به این معنی که مشارکت آن با شرکت اوپن‌ای‌آی یک همکاری انحصاری و طولانی مدت نیست.

سیستم‌های عامل iOS ۱۸ و iPadOS ۱۸
به‌روزرسانی نرم‌افزار بعدی گوشی‌های آیفون در پاییز برای کاربران عرضه می‌شود و همانطور که انتظار می‌رود، یکی از بزرگترین تغییرات، پشتیبانی از Rich Communication Service یا RCS است که یک پروتکل پیام‌رسانی ایمن‌تر است و پیشرفت‌های زیادی را از جمله رمزگذاری سراسری، اشتراک‌گذاری رسانه بهتر و پشتیبانی مناسب از چت‌های گروهی نسبت به پیامک(SMS) ارائه می‌دهد.

شرکت اپل قبلاً اعلام کرده بود که در سال ۲۰۲۴ از RCS پشتیبانی می‌کند تا با مقررات اتحادیه اروپا مطابقت داشته باشد.

همچنین قابلیت جدیدی در پیام‌رسانی به نام «تپ‌بک»(tapback) امکان پاسخ با استفاده از ایموجی‌ها و استیکرها، قالب‌بندی متن و افکت‌ها و امکان ارسال پیام از طریق ماهواره را فراهم خواهد کرد.

کاربران آیفون در iOS ۱۸ کنترل بیشتری روی صفحه اصلی خود خواهند داشت، زیرا دیگر سیستم آن قفل شده و از پیش تعیین شده و غیر قابل تغییر نخواهد بود. اکنون کاربران می‌توانند آیکون‌های برنامه‌ها را به روشی آزادانه‌تر جابجا کنند، به علاوه می‌توانند رنگ نماد برنامه را نیز تغییر دهند.

از نظر طراحی و چیدمان، این یکی از بزرگ‌ترین تغییراتی است که در سال‌های اخیر در صفحه اصلی آیفون ایجاد شده است و به کاربران iOS ویژگی‌های مشابهی را می‌دهد که کاربران اندرویدی برای مدت طولانی در اختیار داشته‌اند.

در همین راستا، مرکز کنترل(Control Center) نیز در iOS ۱۸ به‌روزرسانی می‌شود تا گزینه‌های سفارشی‌سازی بیشتری را شامل شود و به کاربران اجازه می‌دهد تا علاوه بر گزینه‌های پیشین، کنترل‌های سریع را از برنامه‌های شخص ثالث در آن جای دهند.

برنامه عکس‌ها(Photos) نیز در iOS ۱۸ بازطراحی بزرگی را دریافت می‌کند و بر گروه‌هایی از عکس‌ها که به طور هوشمند سازماندهی شده‌اند که حول خاطرات، سفرها و سایر رویدادهای بزرگ می‌چرخند، تاکید دارد. این طرح جدید طرح‌بندی، روش‌های قدیمی را حذف می‌کند و می‌توانید همه عکس‌های خود را به‌صورت جداگانه مشاهده کنید یا آنها را به صورت مجموعه‌ای مشاهده کنید.

کاربران همچنین می‌توانند مواردی مانند اسکرین‌شات‌ها و رسیدهایی را که در قالب زمانی نمایش داده می‌شوند، فیلتر کنند.

چند ویژگی جدید حفظ حریم خصوصی در iOS ۱۸ برجسته است که شامل توانایی قفل کردن و مخفی کردن برنامه‌هاست. در مورد اول، کاربران می‌توانند برنامه‌ای را قفل کنند تا اطلاعات حساس در پشت دیوار Face-ID یا Touch-ID باقی بماند و حتی کسانی را که به طور اتفاقی آیفون خود را به آنها می‌دهید، نتوانند آن اطلاعات را ببینند. در مورد دومی نیز مخفی کردن یک برنامه، آن را در یک پوشه مخفی خاص پنهان می‌کند که دیگران قادر به دیدن آن نیستند.

برنامه ماشین حساب(Calculator) هم در iOS ۱۸ دچار تغییرات اساسی شده است. از جمله تبدیل واحدهای بهبود یافته، نوار کناری که فعالیت اخیر و ادغام با برنامه یادداشت(Notes) را نشان می‌دهد.

آنچه که می‌تواند حتی قابل توجه‌تر باشد این واقعیت است که برنامه اصلاح ‌شده ماشین حساب اپل نه تنها در آیفون‌ها و مک‌ها در دسترس خواهد بود، بلکه برای اولین بار به عنوان بخشی از به‌روزرسانی iPadOS ۱۸ به آیپد نیز می‌آید.

همچنین ویژگی جدیدی به نام یادداشت های ریاضی(Math Notes) در برنامه ماشین حساب آیپد تعبیه شده است که به کاربران امکان می‌دهد معادلات ریاضی را با قلم اپل(Apple Pencil) بنویسند و برنامه آن معادلات را فوری حل کند.

سیستم عامل iPadOS ۱۸ همچنین دارای نوار Tab جدید است که شبیه جزیره دینامیک در آیفون‌هاست. این نوار، دسترسی به کنترل‌های ضروری را حتی زمانی که در برنامه‌ها هستید آسان‌تر می‌کند و بسته به کاری که انجام می‌دهید، می‌تواند در بالای صفحه یا به ‌عنوان یک نوار کناری در سمت چپ نمایشگر نشان داده شود.

همچنین برنامه Notes در iPadOS یک ویژگی جدید دیگر به نام Smart Script دریافت می‌کند که باعث می‌شود دستخط کاربران به طور خودکار خواناتر و کمتر شلوغ باشد.

مک‌اواس سکویا
نسخه جدید نرم افزار کامپیوتر اپل مک‌اواس سکویا(macOS Sequoia) نام دارد که علاوه بر بسیاری از ویژگی‌های هوش مصنوعی که به ‌عنوان بخشی از «هوش اپل» به iOS و iPadOS ۱۸ می‌آیند، به‌روزرسانی بعدی macOS شامل آینه‌کردن(mirroring) آیفون می‌شود که به کاربران اجازه می‌دهد صفحه آیفون خود را روی صفحه Mac ببینند و کنترل کنند. کاربران می‌توانند از صفحه‌کلید خود برای کمتر کار کردن با صفحه آیفون استفاده کنند و حتی می‌توانند برنامه‌های iOS را مستقیماً روی رایانه‌شان باز کنند، بدون اینکه نیاز باشد آیفون خود را بردارند.

یک برنامه جدید رمز(Passwords) نیز بر اساس فناوری iCloud keychain ساخته شده است تا همه گذرواژه‌ها و اعتبارنامه‌های ورود کاربران را در دستگاه‌ها و پلتفرم‌ها ذخیره کند. این ویژگی علاوه بر iOS و iPadOS در ویندوز نیز در دسترس خواهد بود.

این برنامه جدید همراه با گذرواژه‌های استاندارد می‌تواند کلیدهای عبور، کدهای تأیید و موارد دیگر را ذخیره کند و به کاربران این امکان را بدهد که به ‌طور امن رمز عبور را با دیگران به اشتراک بگذارند.

دیگر به‌روزرسانی‌هایی که در macOS Sequoia ارائه می‌شوند عبارتند از ابزار چیدمان پنجره فوری با میانبرهای صفحه کلید و منو و یک ویژگی به نام Presenter Preview که به شما امکان می‌دهد آنچه را که می‌خواهید با کسانی با آنها در حال صحبت کردن تلفنی هستید، به اشتراک بگذارید، قبل از دیدن آنها ببینید.

کاربران همچنین به ویژگی Image Playground در macOS Sequoia که مولد تصویر هوش مصنوعی اپل است که در هوش اپل تعبیه شده است، دسترسی خواهند داشت. این ویژگی توانایی ایجاد تصاویر تولید شده با هوش مصنوعی در سبک‌های مختلف از جمله پویانمایی، تصویرسازی و طراحی را فراهم می‌کند.

سیستم عامل جدید ساعت هوشمند اپل
به‌روزرسانی نرم‌افزاری بعدی اپل برای ساعت هوشمند این شرکت موسوم به اپل‌ واچ(Apple Watch) شامل دو تغییر بزرگ به نام‌های بار تمرین(Training Load) و علائم حیاتی(Vitals) است که اولی در watchOS ۱۱ اساساً از بسیاری از معیارهای سلامت و تناسب اندام جمع‌آوری شده در طول ردیابی تمرین ورزشی برای تخمین سطح تلاش کاربر در هر جلسه استفاده می‌کند. بدین صورت که هر تمرین، امتیازی از یک(آسان) تا ۱۰(سخت) دریافت می‌کند که میزان سختی تمرین کاربر را در آن جلسه خاص تخمین می‌زند.

برنامه جدید Vitals نیز به کاربران اپل واچ نشان می‌دهد که علائم حیاتی آنها از جمله ضربان قلب در مقایسه با اندازه‌گیری‌های پایه و استاندارد چگونه ثبت شده است. این ویژگی به کاربران امکان می‌دهد بهتر بفهمند چه زمانی چیزی غیر عادی پیش می‌رود و از محدوده عادی خارج می‌شود.

اپلیکیشن فعالیت(Activity) در آیفون نیز در حال دریافت به‌روزرسانی به همراه watchOS ۱۱ است و به کاربران امکان می‌دهد داده‌هایی را که در صفحه اصلی می‌بینند، شخصی‌سازی کنند تا بتوانند مهم‌ترین آمارها را پیش روی خود ببینند.

ردیابی قاعدگی برای بانوان نیز به‌روزرسانی‌هایی دریافت می‌کند که شامل اطلاعات دقیق‌تری درباره بارداری، از جمله سن حاملگی و اطلاعاتی درباره معیارهای سلامتی کاربر مانند نوسانات ضربان قلب است که ممکن است با بارداری مرتبط باشد.

سیستم عامل visionOS ۲
تاکنون هدست واقعیت ترکیبی شرکت اپل به نام ویژن پرو(Vision Pro) تنها در ایالات متحده در دسترس بوده است، اما این موضوع به زودی تغییر می‌کند، زیرا این شرکت اعلام کرد که این دستگاه در کشورهای دیگری از جمله استرالیا، کانادا، چین، فرانسه، آلمان، ژاپن، سنگاپور و بریتانیا طی ماه‌های آینده عرضه خواهد شد.

در مورد نرم‌افزار این هدست نیز که «ویژن اواس»(visionOS) نام دارد، اپل اعلام کرد که عکس‌های فضایی(spatial photos) را به آن اضافه می‌کند که به تصاویر در برنامه Photos عمق می‌بخشد و کنترل‌های حرکتی رابط کاربری جدید و بهبود آینه کردن روی صفحه مک با پشتیبانی از وضوح و اندازه‌های نمایش بالاتر را ارائه می‌دهد.

به‌روزرسانی‌های صوتی ایرپادز پرو
اپل به طور خلاصه به برخی از به‌روزرسانی‌های نرم‌افزاری که برای AirPods Pro می‌آیند، از جمله بهبود ایزوله کردن صدا(Voice Isolation) اشاره کرد که به ایرپادها کمک می‌کند تا صدای کاربر را در محیط‌های شلوغ بهتر دریافت کنند.

همچنین یک ویژگی جدید موسوم به تعامل سیری(Siri Interaction) به ایرپادز پرو می‌آید که با یک سر تکان دادن بی‌صدا به کاربران اجازه می‌دهد بدون نیاز به گفتن هر کلمه‌ای به سیری، به تماس‌های دریافتی پاسخ دهند و همچینن با تکان دادن سر بتوانند یک تماس ورودی را رد کنند. این تعاملات بی‌صدا برای پیام‌ها و اعلان‌ها نیز قابل اجرا خواهد بود.

انتشار بدافزار مخرب از طریق به‌روزرسانی جعلی مرورگرها

کارشناسان امنیت سایبری اخیرا از انتشار بدافزاری با استفاده از به‌روزرسانی جعلی مرورگرها هشدار داده‌اند که حملات با هدایت کاربران به وب سایت‌های آلوده و دانلود فایل‌های مخرب توسط آنها انجام می‌شود.

بدافزارها شامل نرم‌افزارهای جاسوسی و یا برنامه‌های تبلیغاتی مزاحم مانند ردیابی کوکی‌هاست که به ردیابی علاقه‌مندی‌های کاربران در رایانه می‌پردازند. واژه بدافزار کوتاه شده نرم‌افزار مخرب (malicious software) است. این واژه اصطلاحی عمومی برای توصیف همه ویروس‌ها، کرم‌ها، جاسوس‌افزارها و تقریباً هر چیزی که به طور خاص برای صدمه به رایانه و یا سرقت اطلاعات طراحی شده است.


واژه ویروس‌های رایانه‌ای اغلب به جای بدافزار استفاده می‌شود، هرچند در واقع این دو واژه به یک معنی نیستند و در دقیق‌ترین معنی، ویروس برنامه‌ای است که خود را مدام تکثیر کرده و رایانه را با گسترش خود از یک فایل به فایل دیگر آلوده می‌کند، سپس وقتی فایل‌ها از یک رایانه به دیگری کپی شده و بین دو یا چند رایانه به اشتراک گذاشته می‌شوند، از کامپیوتر آلوده به دیگران منتقل می‌شود و این روند همچنان ادامه پیدا می‌کند.

نکته قابل توجه این است بدافزارها دارای برخی ویژگی‌های کلیدی هستند که آن را از دیگر نرم‌افزارهای مخرب مجزا می‌کند که رمزگذاری غیرقابل شکست از جمله ویژگی‌های آن است؛ به این معنی که نمی‌توان فایل‌ها را خودتان رمزگشایی کنید اما بدافزار می‌تواند انواع فایل‌ها، از اسناد تا تصاویر، فایل‌های صوتی و سایر مواردی که ممکن است روی رایانه باشد، رمزگذاری کند.

در این راستا اخیرا مرکز مدیریت امداد و هماهنگی عملیات رخدادهای رایانه‌ای( ماهر) از انتشار بدافزاری با استفاده از به‌روزرسانی جعلی مرورگرها هشدار داده است. در واقع مهاجمان سایبری با استفاده از به‌روزرسانی‌های جعلی مرورگرها، بدافزارهایی نظیر BitRAT و Lumma Stealer را توزیع می‌کنند.

این حملات با هدایت کاربران به وب‌سایت‌های آلوده و دانلود فایل‌های مخرب توسط آن‌ها آغاز می‌شوند. با بازدید قربانیان از یک وب‌سایت آلوده که در آن کدی به زبان جاوااسکریپت قرار داده شده است، کاربران به یک صفحه جعلی به‌روزرسانی مرورگر هدایت می‌شوند که تحت دامنه‌ای مانند "abcde-app[.]cloud" قرار دارد. هدف این حمله فریب کاربران برای دانلود و نصب نرم‌افزارهای مخرب یا انجام اقدامات مخرب دیگر است.

پس از هدایت کاربران به صفحه جعلی به‌روزرسانی مرورگر، در این صفحه یک لینک دانلود قرار داده شده است که به یک فایل ZIP به نام "Update.zip" اشاره دارد. این فایل ZIP در پلتفرم Discord میزبانی می‌شود و به صورت خودکار در دستگاه قربانی دانلود می‌شود. این کار دستگاه قربانی را با بدافزارهای موجود در فایل ZIP آلوده می‌کند. در داخل این فایل ZIP، یک فایل جاوااسکریپت دیگر به نام "Update.js" وجود دارد. این فایل جاوااسکریپت باعث اجرای اسکریپت‌های PowerShell می‌شود.

وظیفه این اسکریپت‌ها دانلود payloadهای اضافی از یک سرور راه دور است. این payloadهای اضافی شامل بدافزارهایی مانند BitRAT و Lumma Stealer هستند که به شکل فایل‌های تصویر PNG دریافت می‌شوند تا از شناسایی بدافزارها جلوگیری شود.

علاوه بر دانلود بدافزارهای BitRAT و Lumma Stealer، اسکریپت‌های PowerShell دیگری نیز به این روش دریافت می‌شوند که هدف آن‌ها ایجاد پایداری در سیستم قربانی است. همچنین یک لودر مبتنی بر .NET دریافت می‌شود که با هدف راه‌اندازی بدافزارهای نهایی استفاده می‌شود.

جزئیات بدافزارها و برخی تکنیک‌های مربوط به این حمله در ادامه تشریح شده است.

BitRAT: یک بدافزار کنترل از راه دور (RAT) با ویژگی‌های پیشرفته است که به مهاجمان امکان جمع‌آوری داده‌ها، استخراج ارزهای دیجیتال، دانلود فایل‌های اجرایی و کنترل سیستم‌های آلوده از راه دور را می‌دهد.

Lumma Stealer: یک بدافزار سرقت اطلاعات است که قادر است اطلاعاتی را از مرورگرهای وب، کیف‌پول‌های ارز دیجیتال و سایر برنامه‌ها و منابع حساس استخراج کند.

وب‌سایت مخربی که برای این حمله طراحی شده، ادعا می‌کند که "مشکلی در نمایش این صفحه وب پیش آمده" و از بازدیدکننده می‌خواهد تا دسترسی root را برای رفع مشکل فعال کند و سپس کدهای مخرب را در powershell اجرا می‌کند. کد PowerShell مخرب پس از اجرا چندین کار را انجام می‌دهد.

پاکسازی کش DNS: کد PowerShell کش DNS سیستم را پاکسازی می‌کند تا مطمئن شود که هیچ ردپای شبکه‌ای باقی نمی‌ماند و ارتباطات جدید با سرورهای مخرب برقرار می‌شود.

نمایش یک Message Box: یک پیام به کاربر نمایش می‌دهد، احتمالاً برای ایجاد نوعی اطمینان یا فریب بیشتر.

دانلود کدهای PowerShell بیشتر: کدهای اضافی PowerShell را جهت اجرای عملکردهای مخرب بیشتری دانلود می‌کند.

نصب بدافزار 'LummaC2': بدافزار LummaC2 را برای کنترل از راه دور سیستم آلوده و سرقت اطلاعات حساس نصب می‌کند.

بدین ترتیب این کد به طور هوشمندانه‌ای چندین عملیات را جهت جلوگیری از شناسایی و حذف توسط سیستم‌های امنیتی اجرا کرده و دسترسی کامل به سیستم قربانی را برای مهاجمان ممکن می‌سازد.

بنابراین طبق موارد گفته شده مرکز ماهر درباره توصیه امنیتی لازم گفته است بیش از ۵۰,۰۰۰ لینک خطرناک در شش ماه گذشته برای توزیع بدافزارها، انجام حملات فیشینگ و ارسال هرزنامه (ایمیل‌های اسپم) استفاده شده‌اند که نشان‌دهنده افزایش فراگیری این نوع حملات است. بنابراین، لازم است که کاربران و سازمان‌ها نه تنها به به‌روزرسانی‌های امنیتی سیستم‌های خود اهمیت دهند، بلکه به آگاهی و آموزش مداوم درباره جدیدترین تهدیدات و روش‌های حمله نیز توجه ویژه‌ای داشته باشند. این تغییر در رویکرد به امنیت سایبری، می‌تواند کلید مقابله با موج جدید حملات هوشمندانه و پیچیده باشد.

گفتنی است اواخر سال گذشته هم از حمله یک بدافزار به سیستم های ویندوزی خبرداده شد. درباره این بدافزار اینگونه توضیح داده شد که AgentTesla یک بدافزار ویندوزی نوشته شده به زبان دات‌نت است و جهت سرقت اطلاعات حساس از سیستم‌های قربانیان طراحی شده است. این بدافزار به دلیل دسترسی آسان و هزینه نسبتاً پایین، به عنوان یک commodity malware شناخته می‌شود.

بدافزار گفته شده به مهاجمان با دانش فنی محدود این امکان را می‌دهد که انواع حملات سایبری مختلف را انجام دهند. AgentTesla از طریق ایمیل‌های آلوده، فایل‌های دانلود شده از منابع ناامن یا وب‌سایت‌های مخرب منتشر می‌شود و پس از نصب در سیستم قربانی، به طور مخفیانه اجرا شده و شروع به جمع‌آوری اطلاعات می‌کند.

هوش مصنوعی اپل روی کدام آیفون‌ها کار می‌کند

تنها آیفون‌های پیشرفته و جدیدتر با «هوش اپل» سازگار خواهند بود. این دستگاه‌های سازگار عبارت‌اند از آیفون ۱۵ پرو و ​​آیفون ۱۵ پرومکس که از تراشه‌های ای‌۱۷ (A17) استفاده می‌کنند.

شرکت اپل روز دوشنبه از سیستم عامل آی‌او‌اس ۱۸ و مشخصه هوش‌ مصنوعی مبتنی بر چت‌جی‌بی‌تی که «هوش اپل» (Apple Intelligence) نام دارد، رونمایی کرد. اما تنها برخی کاربران آیفون می‌توانند از این آخرین سیستم‌عامل مجهز به هوش مصنوعی استفاده کنند.

به گزارش نیویورک‌پست، «هوش اپل» با قابلیت ساخت شکلک‌ (ایموجی) و همچنین ابزار نوشتاری پیشرفته پاییز ۲۰۲۴ عرضه می‌شود. سیستم‌عامل آی‌اواس ۱۸ در برنامه دستیار مجازی سیری، به نسخه «درک کامل‌تر زبان» مجهز می‌شود و علاوه بر آن با عرضه قابلیت‌های دیگر کار را برای کاربران اپل راحت‌تر می‌کند.

طبق اعلام شرکت اپل، تنها آیفون‌های پیشرفته و جدیدتر با «هوش اپل» سازگار خواهند بود. این دستگاه‌های سازگار عبارت‌اند از آیفون ۱۵ پرو و ​​آیفون ۱۵ پرومکس که از تراشه‌های ای‌۱۷ (A17) استفاده می‌کنند.

قیمت این مدل‌ها از ۹۹۹ دلار شروع می‌شود.

«هوش اپل» روی آی‌پد پرو و آی‌پد ایر، مجهز به تراشه‌های ام۱ (M1) یا نسل‌‌های جدید‌تر نیز قابل‌اجرا است. در مورد کامپیوترها هم، مک‌بوک ایر مجهز به ام‌۱ یا نسل‌‌های جدیدتر، مک‌بوک مجهز به پرو ام۱ (ProM1) یا جدیدتر، آی‌مک مجهز به ام‌۱ یا جدیدتر و مک‌مینی مجهز به ام‌۱ یا جدیدتر می‌توانند از «هوش اپل» استفاده کنند. همچنین مک‌استودیو مجهز به ام‌۱ مکس (M1 Max) یا جدیدتر و مک‌ پرو مجهز به ام۲ الترا (M2 Ultra) می‌توانند از این به‌روز رسانی بهره‌مند شوند.

با این حال آیفون‌‌های اس‌ئی (SE) مدل ۲۰۱۶ بعد همچنان می‌توانند به آی‌او‌اس ۱۸ ارتقا پیدا کنند، اما «هوش اپل» در این ‌گوشی‌ها وجود ندارد.

چند ویژگی جدید سیستم‌عامل آی‌او‌اس ۱۸ عبارت‌اند از: قابلیت پخش ویدیو اضطراری از طریق برنامه کمک‌رسانی اس‌او‌اس (SOS)، نوشتن هم‌زمان متن مکالمات در جریان و همچنین به روز‌رسانی برنامه تناسب اندام اپل (Apple Fitness) و ماشین حساب.

کارکنان فعال حوزه هوش مصنوعی خواستار حمایت‌های قوی‌تر از سوت‌زن‌ها شدند

نویسندگان این نامه هشدار داده‌اند که دنبال کردن کنترل‌نشده توسعه سیستم‌های هوش مصنوعی قدرتمند می‌تواند منجر به انتشار اطلاعات نادرست، تشدید نابرابری و حتی از دست دادن کنترل انسان بر سیستم‌های خودمختار شود، که به طور بالقوه می‌تواند منجر به انقراض انسان شود.

گروهی از کارمندان فعلی و سابق شرکت‌های پیشرو هوش مصنوعی مانند OpenAI، دیپ‌مایند گوگل، و آنتروپیک نامه سرگشاده‌ای را امضا کرده و در آن خواستار شفافیت بیشتر و محافظت در برابر تلافی‌جویی‌ها علیه کسانی شده‌اند که درباره نگرانی‌های بالقوه در زمینه هوش مصنوعی افشاگری و صحبت می‌کنند.

در این نامه آمده است: «تا زمانی که نظارت مؤثر دولت بر این شرکت‌ها وجود نداشته باشد، کارمندان فعلی و سابق از معدود افرادی هستند که می‌توانند آنها را در برابر مردم پاسخگو کنند. با این حال، قراردادهای گسترده محرمانه ماندن اخبار، ما را از ابراز نگرانی‌هایمان باز می‌دارند».

این نامه تنها چند هفته پس از انتشار نتایج تحقیقات انجام‌شده توسط وبسایت Vox منتشر می‌شود که نشان داد OpenAI تلاش کرده است کارکنانی را که اخیراً این شرکت را ترک کرده‌اند، با وادار کردن‌شان به انتخاب بین امضای یک توافق‌نامه رعایت منافع شرکت و یا خطر از دست دادن سهام‌شان در شرکت، ساکت نگه دارد.

پس از این گزارش، سم آلتمن، مدیر عامل OpenAI، گفت که او واقعاً از این وجود چنین ضابطه‌ای شرمنده شده است و ادعا کرد که این قانون از اسناد خروج اخیر حذف شده است، اگرچه مشخص نیست که آیا برای برخی از کارمندان به قوت خود باقی می‌ماند یا خیر.

جاکوب هینتون، ویلیام ساندرز و دانیل کوکوتاجلو سه تن از 13 امضاکننده این نامه و کارمندان سابق OpenAI هستند. کوکوتاجلو گفت که پس از آنکه دلگرمیش مبنی بر اینکه هوش جامع مصنوعی (اصطلاحی که به معنای سیستم‌های هوش مصنوعی است که به اندازه انسان هوشمند یا بیشتر از آن باهوش هستند) به طور مسئولانه‌ای ایجاد خواهد شد را از دست داد، از این شرکت استعفا داد،

نویسندگان این نامه هشدار داده‌اند که دنبال کردن کنترل‌نشده توسعه سیستم‌های هوش مصنوعی قدرتمند می‌تواند منجر به انتشار اطلاعات نادرست، تشدید نابرابری و حتی از دست دادن کنترل انسان بر سیستم‌های خودمختار شود، که به طور بالقوه می‌تواند منجر به انقراض انسان شود.

این امضاکنندگان از شرکت‌های هوش مصنوعی خواسته‌اند که به چهار اصل کلیدی پایبند باشند:
- خودداری از انتقام گرفتن از کارکنانی که نگرانی‌های ایمنی را بیان می‌کنند
- پشتیبانی از یک سیستم بدون افشای نام سوت‌زن‌ها به منظور ارائه هشدار به مردم و نهادهای نظارتی در مورد این خطرات
- فراهمسازی بستر انتقاد بی‌پرده
- و اجتناب از اجبار به امضای قراردادهای رعایت منافع شرکت و یا عدم افشا، که کارمندان را در صحبت کردن محدود می‌کند.

یک دانشمند اردنی به عنوان رئیس هوش مصنوعی در ناسا منصوب شد

دکتر عمر حاتمله دانشمند اردنی از انتصاب خود به عنوان مدیر عامل هوش مصنوعی در مرکز وابسته به آژانس فضایی آمریکا، ناسا خبر داد.

دکتر عمر حاتمله دانشمند اردنی از انتصاب خود به عنوان مدیر عامل هوش مصنوعی در مرکز وابسته به آژانس فضایی آمریکا، ناسا خبر داد.

حاتملا از طریق حساب کاربری خود در پلتفرم لینکدین فاش کرد که به عنوان اولین مدیر اجرایی هوش مصنوعی در مرکز پرواز فضایی گودارد ناسا انتخاب شد.

پیش‌تر حاتملا سمت اداری دیگری در آژانس داشت که مربوط به نوآوری بود.

مرکز گدار یک آزمایشگاه تحقیقاتی فضایی وابسته به ناسا است و در سال 1959 به عنوان اولین مرکز پرواز فضایی این آژانس تاسیس شد.

به گفته ناسا، این مرکز "بزرگ‌ترین سازمان مشترک دانشمندان و مهندسان در ایالات متحده است که به غنی سازی دانش انسان در مورد علوم مربوط به زمین، منظومه شمسی و جهان از طریق مشاهدات از فضا اختصاص دارد."

ChatGPT به کمک افراد مبتلا به اوتیسم می‌آید

با ظهور چت‌بات‌های هوشمند مانند ChatGPT، افراد مبتلا به اوتیسم تمایل زیادی را به استفاده از آن برای برطرف کردن مشکلات محل کار خود نشان داده‌اند.

پژوهش جدید «دانشگاه کارنگی ملون»(CMU) نشان می‌دهد که بسیاری از افراد مبتلا به اوتیسم از ChatGPT و فناوری‌های مشابه مبتنی بر هوش مصنوعی برای دریافت کمک و مشاوره استفاده می‌کنند تا با مشکلات محل کار خود روبه‌رو شوند.

این گروه پژوهشی به سرپرستی «اندرو بیگل»(Andrew Begel)، پژوهشگر دانشکده علوم رایانه دانشگاه کارنگی ملون دریافتند که فناوری‌های مبتنی بر هوش مصنوعی گاهی اوقات توصیه‌های مشکوک را ارائه می‌دهند و بحث‌هایی در مورد این موضوع وجود دارد که آیا استفاده کردن از چت‌بات‌ها در جامعه اوتیسم ایده خوبی است یا خیر.

بیگل گفت: ما دریافتیم برخی از افراد مبتلا به اوتیسم از ChatGPT برای پرسیدن سؤالاتی استفاده می‌کنند که شاید این فناوری در پاسخ دادن به آنها تا حدودی مناسب و تا حدودی ضعیف باشد. به عنوان مثال، آنها ممکن است بپرسند که چگونه در محل کار دوست پیدا کنند.

بیگل، ریاست آزمایشگاه «وری‌ابیلیتی»(VariAbility) را بر عهده دارد که به دنبال ایجاد مکان‌های کاری برای همه افراد از جمله افراد مبتلا به معلولیت و اختلالات یادگیری است تا بتوانند با موفقیت در کنار هم کار کنند. بیکاری و کمبود کار برای ۹ نفر از هر ۱۰ بزرگسال مبتلا به اوتیسم، از جمله مشکلات افراد این گروه است و بسیاری از محیط‌های کاری، منابع لازم را برای کمک به کارمندان مبتلا به اوتیسم و ​​همکاران آنها به منظور غلبه بر مشکلات اجتماعی یا ارتباطی ندارند.

بیگل و گروهش برای درک بهتر این‌که چگونه می‌توان از مدل‌های زبانی بزرگ برای رفع چنین مشکلاتی استفاده کرد، ۱۱ شخص مبتلا به اوتیسم را برای آزمایش مشاوره آنلاین از دو منبع به کار گرفتند. اولین منبع، یک چت‌بات مبتنی بر GPT-4 شرکت «اوپن‌ای‌آی»(OpenAI) و دومین منبع، یک چت‌بات دیگر بود که واقعا مانند یک مشاور شغلی انسان عمل کرد.

بیگل گفت: با کمال تعجب، کاربران به شدت چت‌بات واقعی را به مشاور مبدل ترجیح دادند. این بدان معنا نیست که چت‌بات توصیه‌های بهتری را ارائه می‌دهد، بلکه روش ارائه آن توصیه‌ها مهم است. شرکت‌کنندگان، دریافت پاسخ‌های سریع و آسان را در اولویت قرار دادند. چت‌بات پاسخ‌هایی را ارائه داد که ظرافت زیادی نداشتند. در مقابل، مشاور معمولا سؤالاتی را درباره آنچه کاربر می‌خواهد انجام دهد یا چرا می‌خواهد آن را انجام دهد، می‌پرسید. بیشتر کاربران ترجیح دادند در چنین پرسش و پاسخی شرکت نکنند.

شرکت‌کنندگان مفهوم چت‌بات را دوست داشتند. یکی از آنها گفت: صادقانه بگویم، من فکر می‌کنم محل کارم تنها چیزی است که به آن اعتماد دارم، زیرا مانند سایر شرکت‌ها یا کسب‌وکارهای فراگیر نیست.

با وجود این، وقتی یک متخصص حمایت از جویندگان کار مبتلا به اوتیسم به ارزیابی پاسخ‌ها پرداخت، متوجه شد که برخی از پاسخ‌های چت‌بات سودمند نبوده‌اند. به عنوان مثال، هنگامی که یکی از کاربران درباره دوست‌یابی درخواست مشاوره کرد، چت‌بات به او پیشنهاد داد که فقط به سراغ افراد برود و صحبت کردن با آنها را آغاز کند. بیگل گفت: مشکل اینجاست که شخص مبتلا به اوتیسم معمولا از انجام این کار احساس راحتی نمی‌کند.

وی افزود: این امکان وجود دارد که یک چت‌بات آموزش‌دیده برای رسیدگی به مشکلات افراد مبتلا به اوتیسم بتواند از ارائه توصیه‌های بد جلوگیری کند، اما احتمالا همه افراد جامعه اوتیسم آن را قبول ندارند. اگرچه برخی ممکن است آن را یک راه عملی برای حمایت از کارکنان مبتلا به اوتیسم بدانند، اما برخی دیگر آن را یک بهانه دیگر برای انتظار کشیدن افرادی می‌دانند که مغز آنها کمی متفاوت از بیشتر افراد کار می‌کند.

آیا خطرات هوش مصنوعی منجر به انقراض انسان می‌شود؟

گروهی از کارمندان فعلی و سابق شرکت‌های بزرگ سیلیکون ولی که فناوری‌های هوش مصنوعی را توسعه می‌دهند، هشدار داده‌اند که این فناوری‌ها می‌توانند تهدیدی برای «انقراض بشریت» باشند.

این هشدار در نامه‌ای سرگشاده منتشر شد که توسط 13 کارمند سابق که اکثر آنها در شرکت هایی مانند OpenAI، Anthropic و DeepMind گوگل بودند، امضا شد.

در این نامه آمده است که محققان ارشد هوش مصنوعی به محافظت بیشتری نیاز دارند تا بتوانند از پیشرفت‌های جدید و جهت‌گیری نوآوری‌های هوش مصنوعی انتقاد کنند.

در این نامه همچنین آمده است که آنها به توانایی فناوری هوش مصنوعی در ارائه مزایای بی‌سابقه برای بشریت اعتقاد دارند و همچنین خطرات جدی ناشی از این فناوری‌ها را درک می‌کنند، به ویژه پس از اینکه آنها به قابلیت‌های جدید قدرتمندی مانند انجام مکالمات صوتی مستقیم با انسان و تعامل با اطلاعات بصری مانند ایجاد ویدئو و تصاویر دست یافتند.

این خطرات از تقویت بیشتر نابرابری، دستکاری و اطلاعات نادرست، تا از دست دادن کنترل بر سیستم‌های هوش مصنوعی مستقل که می‌تواند منجر به انقراض انسان شود، متغیر است.

از نظارت مؤثر خودداری کنید
در این نامه آمده است که شرکت‌هایی که فناوری‌های قدرتمند هوش مصنوعی، از جمله هوش مصنوعی عمومی را توسعه می‌دهند، انگیزه‌های مالی قدرتمندی برای اجتناب از نظارت مؤثر کارمندان، مدیریت و کاربران دارند.

آنها خاطرنشان کردند که هر آزمایشگاهی که به دنبال توسعه AGI است باید ثابت کند که مستحق اعتماد عمومی است و به کارمندان حق محافظت شده برای گزارش تخلفات را بدهد.

در این نامه همچنین از شرکتها می خواهد که از مجازات یا ساکت کردن کارمندان فعلی یا سابقی که در مورد خطرات هوش مصنوعی صحبت می‌کنند، خودداری کنند.

OpenAI پاسخ داد
یکی از سخنگویان OpenAI گفت که این شرکت موافق است که با توجه به اهمیت این فناوری، بحث دقیق در مورد هوش مصنوعی ضروری است.

وی تاکید کرد که این شرکت به تعامل با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهد داد.

او توضیح داد که چندین گام برای اطمینان از اینکه OpenAI به انتقادات کارمندان اهمیت می‌دهد و به صورت مسئولانه محصولات خود را توسعه می‌دهد، انجام می دهد، از جمله یک خط تلفن ناشناس برای کارمندان و یک کمیته ایمنی و امنیتی که پیشرفت‌های شرکت را بررسی می‌کند.

OpenAI همچنین حمایت خود را از تصویب مقررات هوش مصنوعی و تعهدات داوطلبانه در مورد ایمنی این فناوری نشان داد.

شایان ذکر است که چندین محقق ارشد این شرکت از جمله یکی از بنیانگذاران Ilya Sutskever در ماه‌های اخیر سمت خود را ترک کرده‌اند.

این آخرین تغییر از زمانی است که شرکت در سال گذشته با یک چالش مهم در هیئت مدیره مواجه شد، که در آن سم آلتمن مدیر عامل OpenAI به طور موقت برکنار شد و سپس کمتر از یک هفته بعد دوباره به کار خود بازگشت.

با هدفون هوش مصنوعی فقط یک صدا را بشنوید

فناوری جدید هدفون هوش مصنوعی می‌تواند به افراد کمک کند تا با افراد خاصی در یک جمعیت هماهنگ شوند و به آن‌ها اجازه می‌دهد حتی در محیط‌های پر سر و صدا بهتر صداها را بشنوند.

محققان گزارش می‌دهند که با این سیستم که "شنوایی گفتار هدف" نام دارد، کاربر با هدفون به مدت سه تا پنج ثانیه به فردی که صحبت می‌کند نگاه می‌کند تا او را "ثبت " کند. سپس هوش مصنوعی تمام صداهای دیگر را در محیط حذف می‌کند و فقط صدای گوینده ثبت شده را پخش می‌کند، حتی اگر شنونده در حال حرکت باشد و دیگر رو به بلندگو نباشد.

شیام گولاکوتا، محقق ارشد، استاد علوم و مهندسی کامپیوتر در دانشگاه واشنگتن، گفت:« با دستگاه‌های ما، اکنون می‌توانید یک منبع صدا را به وضوح بشنوید، حتی اگر در یک محیط پر سر و صدا با افراد زیادی صحبت می‌کنند.» محققان توضیح دادند که سیستم هوش مصنوعی توانایی مغز انسان برای تمرکز بر گفتار یک فرد را تقلید می‌کند و آن را بهبود می‌بخشد.

برای استفاده از این سیستم، فردی که هدفون‌ به میکروفون مجهز شده را دارد، در حالی که مستقیماً به فردی در حال صحبت نگاه می‌کند، روی دکمه‌ای ضربه می‌زند. امواج صوتی صدای بلندگو به میکروفون‌های دو طرف هدست می‌رسد و سیگنال به هوش مصنوعی نصب شده در هدفون ارسال می‌شود.

هوش مصنوعی الگوهای صوتی گوینده را می‌آموزد و بر صدای فرد تمرکز می‌کند و حتی اگر گوینده و شنونده در اطراف حرکت کنند به پخش آن ادامه می‌دهد. به گفته محققان، توانایی سیستم برای تمرکز بر روی صدا حتی با ادامه صحبت آنها بهبود می‌یابد.

تیم تحقیقاتی، این سیستم را روی 21 نفر آزمایش کردند که وضوح صدای بلندگوهای ثبت نام شده را تقریباً دو برابر بیشتر از صدای آنها در صدای فیلتر نشده ارزیابی کردند.

محققان اخیرا یافته های خود را در هونولولو در کنفرانس ACM CHI در مورد عوامل انسانی در سیستم‌های محاسباتی ارائه کردند. یافته‌های ارائه شده در نشست‌های علمی باید مقدماتی در نظر گرفته شود تا زمانی که در یک مجله معتبر منتشر شود. کد الکترونیکی برای دستگاه آنها برای دیگران در دسترس است تا بتوانند بر روی آن سیستم بسازند، اما این سیستم به صورت تجاری در دسترس نیست.

به گفته محققان، در حال حاضر، این سیستم می‌تواند هر بار فقط یک بلندگو را ثبت‌ کند، و اگر صدای بلند دیگری از همان جهت باشد، نمی‌تواند بلندگوی دیگر را ثبت کند.
این تیم در حال کار بر روی گسترش سیستم به هدفون و سمعک در آینده است.

دانشجویان بی‌علاقه، اسیر چنگال هوش مصنوعی در انجام تکالیف شدند!

استفاده از هوش مصنوعی، به ویژه ابزارهایی مانند ChatGPT، در انجام تکالیف دانشگاهی در حال افزایش است. این موضوع نگرانی‌هایی را در مورد تقلب و کیفیت آموزش ایجاد کرده است.

به گزارش Phys، پژوهشگران در مارس ۲۰۲۳ مطالعه‌ای را روی ۱۶۰ دانشجوی ۱۸ تا ۲۴ ساله مقطع لیسانس انجام دادند تا میزان استفاده آنان از ابزارهای هوش مصنوعی در درس‌های خود را بررسی کنند. نتایج این تحقیق در ژورنال The Internet and Higher Education منتشر شده است.

۳۲ درصد از شرکت‌کنندگان اعلام کردند که تمایل دارند در انجام تکالیف خود از ابزارهایی مانند ChatGPT استفاده کنند. در مقابل، ۱۵ درصد از دانشجویان بیان کردند که در گذشته به ندرت از این ابزارها بهره‌برده‌اند.

جالب توجه است که هیچ‌یک از شاخص‌های رفتار آکادمیک نتوانستند به‌طور دقیق استفاده از ابزارهای هوش مصنوعی را در انجام تکالیف درسی کشف کنند.

نتایج این پژوهش نشان می‌دهد که دانشجویان بی‌علاقه به درس بیشتر از دانشجویان علاقه‌مند از هوش مصنوعی برای انجام تکالیف استفاده می‌کنند.

در این میان، پژوهشگران می‌گویند که علاقه به رشته تحصیلی، مهم‌ترین عامل بازدارنده استفاده از هوش مصنوعی در انجام تکالیف است.

بر همین حال، دانشجویانی که از ریسک لو رفتن یا مجازات‌های تقلب آگاه هستند، کمتر از هوش مصنوعی استفاده می‌کنند.

نگرانی‌ها
استفاده از هوش مصنوعی برای انجام تکالیف می‌تواند نگرانی‌های متعددی را به وجود آورد، از جمله:

تقلب: دانشجویانی که از هوش مصنوعی برای انجام تکالیف خود استفاده می‌کنند، در واقع چیزی یاد نمی‌گیرند و فقط به دنبال نمره بالا هستند.
کیفیت آموزش: استفاده از هوش مصنوعی می‌تواند کیفیت آموزش را پایین بیاورد، زیرا دانشجویان فرصتی برای یادگیری و درک مفاهیم درسی پیدا نمی‌کنند.
عدم صداقت علمی: استفاده از هوش مصنوعی برای انجام تکالیف نوعی تقلب محسوب می‌شود و می‌تواند به عدم صداقت علمی در محیط دانشگاه لطمه بزند.

راه‌حل‌ها
برای مقابله با این مشکل، راه‌حل‌های مختلفی وجود دارد، از جمله:

طراحی تکالیفی که نیاز به تفکر خلاقانه و حل مسئله داشته باشد.
استفاده از نرم‌افزارهایی که می‌تواند استفاده از هوش مصنوعی را در انجام تکالیف تشخیص دهد.
افزایش آگاهی دانشجویان در مورد عواقب استفاده از هوش مصنوعی برای انجام تکالیف.
ترویج فرهنگ یادگیری واقعی و درک مفاهیم درسی به جای تمرکز صرف بر نمره.

برنامه جدید گوگل برای آوردن هوش مصنوعی به زیرساخت‌های عمومی

گوگل می‌گوید استارت‌آپ‌هایی را با استفاده از هوش مصنوعی برای افزایش بهره‌وری و حل مشکلات در طیف وسیعی از صنایع، از جمله پیشگیری از بلایا، محیط‌زیست و پایداری، تولید هوشمند و تدارکات، ایمنی عمومی، مدیریت آب، توسعه نیروی کار، انتخاب خواهد کرد.

جدیدترین برنامه گوگل که روز چهارشنبه اعلام شد، قصد ارائه فناوری هوش مصنوعی به بخش عمومی را دارد. آکادمی هوش مصنوعی گوگل برای استارت‌آپ‌ها که به تازگی راه‌اندازی شده است، به شرکت‌کنندگان آموزش‌های عملی از کارشناسان هوش مصنوعی و سایر پشتیبانی‌ها را برای شرکت‌هایی ارائه می‌دهد که مشکلاتی را در زمینه‌هایی مانند کشاورزی، انرژی، آموزش، ایمنی عمومی، مراقبت‌های بهداشتی، مخابرات، حمل‌ونقل، توسعه شهری حل می‌کنند.

در طول ۱۲ هفته، استارت‌آپ‌ها توسط یک برنامه هوش مصنوعی که توسط تیم Google's People + AI Research (PAIR) تهیه شده است هدایت می‌شوند و در کارگاه‌های فروش پیشرفته و عرضه به بازار شرکت خواهند کرد. آنها همچنین می‌توانند به بازارهای صنعتی دسترسی داشته و در حین ساخت از ابزارهای هوش مصنوعی گوگل استفاده کنند.

استارت‌آپ‌هایی که از این برنامه خارج می‌شوند، بخشی از جامعه خروجی خواهد بود، که قبلاً شامل شرکت‌های زیرساختی دیگری مانند JustAir است که از هوش مصنوعی برای نظارت بر آلودگی هوا استفاده می‌کند، Combo که بر کربن‌زدایی املاک تجاری تمرکز دارد؛ و Sensagrate که برای کاهش تلفات رانندگی کار می‌کند.

گوگل می‌گوید استارت‌آپ‌هایی را با استفاده از هوش مصنوعی برای افزایش بهره‌وری و حل مشکلات در طیف وسیعی از صنایع، از جمله پیشگیری از بلایا، محیط‌زیست و پایداری، تولید هوشمند و تدارکات، ایمنی عمومی، مدیریت آب، توسعه نیروی کار، انتخاب خواهد کرد. آخرین مهلت ارسال درخواست‌ها برای استارتاپ‌ها 17 ژوئن است.

گوگل معتقد است در حالی که تمرکز زیادی بر روی شرکت‌های هوش مصنوعی است که مدل‌ها، ابزارها و رابط‌های کار با هوش مصنوعی را می‌سازند، تمرکز بر کاربردهای دنیای واقعی این فناوری می‌تواند بر جوامع تأثیر بگذارد. این شرکت، استارت‌آپ‌ها را تشویق می‌کند که حتی اگر مستقیماً روی این صنایع متمرکز نباشند، به هر طریقی برای ایجاد خدمات عمومی کارآمدتر و عادلانه‌تر تلاش کنند.

هوش مصنوعی به کمک ماموگرافی برای تشخیص سرطان سینه می‌آید

مطالعه جدیدی نشان می‌دهد که هوش مصنوعی می‌تواند ارزیابی‌های پزشکان از ماموگرافی را بهبود بخشد و حتی کوچک‌ترین سرطان‌های سینه را با خوانش‌های مثبت کاذب کمتر تشخیص دهد.

محققان در 4 ژوئن در ژورنال رادیولوژی گزارش دادند که ماموگرافی به کمک هوش مصنوعی سرطان‌های سینه را به میزان قابل توجهی با میزان مثبت کاذب کمتری نسبت به پزشکانی که به تنهایی ماموگرافی را ارزیابی می‌کردند، شناسایی کرد. به گفته محققان، زمانی که هوش مصنوعی به پزشکان در تجزیه و تحلیل تصویربرداری از پستان کمک کرد، تقریباً 21 درصد زنان کمتری مجبور شدند برای ماموگرافی بعدی مراجعه کنند.

محقق آندریاس لوریتزن، دانشجوی فوق دکترا در دانشگاه کپنهاگ در دانمارک گفت: «ما معتقدیم هوش مصنوعی پتانسیل بهبود عملکرد غربالگری را دارد.»
برای این مطالعه، محققان از رادیولوژیست‌های انسانی خواستند ماموگرافی نزدیک به 61000 زن دانمارکی 50 تا 69 ساله را که بین اکتبر 2020 و نوامبر 2021 غربالگری شده بودند، قبل از اینکه هوش مصنوعی برای این منظور در دسترس قرار گیرد، بخوانند. سپس، بین نوامبر 2021 و اکتبر 2022، یک برنامه هوش مصنوعی تجزیه و تحلیل غربالگری سینه را برای بیش از 58000 زن را انجام داد.
ماموگرافی‌هایی که توسط هوش مصنوعی طبیعی تلقی می‌شدند، سپس توسط رادیولوژیست‌های انسانی برای تایید تجزیه و تحلیل برنامه مورد بررسی قرار گرفتند.

نتایج نشان می‌دهد که غربالگری با کمک هوش مصنوعی سرطان سینه بیشتری را شناسایی کرد و نرخ مثبت کاذب کمتری داشت. محققان دریافتند ارزش پیش‌بینی مثبت غربالگری (احتمال اینکه زن واقعاً پس از یک نتیجه مثبت به سرطان سینه مبتلا شود) به کمک هوش مصنوعی نیز بالاتر بود؛ 34 درصد در مقابل 23 درصد.

هوش مصنوعی همچنین به پزشکان کمک کرد تا تومورهای بیشتری با اندازه ۱ سانتی متر یا کمتر پیدا کنند. به گفته محققان، کمک هوش مصنوعی همچنین حجم کار خواندن رادیولوژیست‌ها را تا بیش از 33 درصد کاهش داد که در دسترسی گسترده به ماموگرافی مهم است.

لوریتزن در یک مجله خبری گفت:« غربالگری مبتنی بر جمعیت با ماموگرافی مرگ و میر ناشی از سرطان پستان را کاهش می‌دهد، اما بار کار قابل‌توجهی را بر دوش رادیولوژیست‌ها قرار می‌دهد که باید تعداد زیادی ماموگرافی را بخوانند، که اکثریت آنها نیاز به فراخوانی از بیمار ندارند.» با این حال، محققان گفتند که مطالعات بیشتری برای ارزیابی نتایج بلندمدت زنان و همچنین دقیق‌تر کردن هوش مصنوعی برای زنان مورد نیاز است.

لوریتزن گفت: «رادیولوژیست‌ها معمولاً به ماموگرافی‌های غربالگری قبلی زنان دسترسی دارند، اما سیستم هوش مصنوعی این امکان را ندارد. این چیزی است که ما دوست داریم در آینده روی آن کار کنیم.»

LLM‌های محبوب ناامن هستند

با افزایش نگرانی‌های مشتریان در سال گذشته، فروشندگان ویژگی‌هایی را به محصولاتشان اضافه کرده و خط‌مشی‌های مربوطه را به‌روزرسانی کردند.

بر طبق تحقیقی که توسط مؤسسه ایمنی هوش مصنوعی بریتانیا منتشر شد، پادمان‌های داخلی موجود در پنج مدل زبان بزرگ (LLM) منتشر شده توسط «لابراتوارهای بزرگ» ناکارآمد هستند.

این مدل‌ها، که در این گزارش نام آنها فاش نشده است، به وسیله اندازه‌گیری انطباق، صحت و تکمیل پاسخ‌ها ارزیابی شدند. این ارزیابی‌ها با استفاده از چارچوب ارزیابی مدل منبع‌باز این مؤسسه، موسوم به Inspect که اوایل ماه مه منتشر شد، تهیه و اجرا شدند.

این مؤسسه در این گزارش اینگونه توضیح داده است: «همه LLM‌های آزمایش‌شده در برابر جیلبریک‌های اولیه بسیار آسیب‌پذیر هستند و برخی از آنها، حتی بدون تلاش چندانی برای دور زدن پادمان‌هایشان، خروجی‌های مضری را ارائه می‌کنند. ما متوجه شدیم که مدل‌ها با سؤالات مضر در چندین دیتاست تحت حملات نسبتاً ساده مطابقت پیدا می‌کنند، حتی با اینکه در صورت عدم وقوع یک حمله احتمال چنین چیزی در آنها کمتر است.»

با فراگیرتر شدن استفاده از هوش مصنوعی در ساختارهای سازمانی، نگرانی‌های امنیتی مربوط به آن در حال افزایش است. این فناوری می‌تواند مشکلات سایبری، از استفاده از محصولات هوش مصنوعی غیرمجاز گرفته تا پایگاه‌های کد ناامن، را تشدید کند.

در حالی که تقریباً همه - 93٪ - مدیران حوزه امنیت سایبری می‌گویند که شرکت‌هایشان از هوش مصنوعی مولد استفاده کرده‌اند، اما طبق یک نظرسنجی انجام شده توسط موسسه Splunk، بیش از یک سوم از کسانی که از این فناوری استفاده می‌کنند، تدابیر امنیتی مربوطه را برقرار نکرده‌اند.

فقدان پادمان‌های داخلی در کنار عدم اطمینان در مورد اقدامات ایمنی تعبیه‌شده توسط فروشنده ابزار AI، یک سناریوی نگران‌کننده برای مدیران محتاط حوزه امنیتی است.

با افزایش نگرانی‌های مشتریان در سال گذشته، فروشندگان ویژگی‌هایی را به محصولاتشان اضافه کرده و خط‌مشی‌های مربوطه را به‌روزرسانی کردند. AWS گاردریل‌هایی را به پلت‌فرم بدراک خود اضافه کرد، و در ماه دسامبر از یک تلاش ایمن‌سازی پشتیبانی کرد. مایکروسافت سال گذشته سرویسی به نام Azure AI Content Safety را که برای شناسایی و حذف محتوای مضر طراحی شده است عرضه کرد. گوگل در تابستان گذشته چارچوب هوش مصنوعی خود را با نام SAIF معرفی کرد.

تعهدات تحت رهبری دولت به ایمنی هوش مصنوعی در سال گذشته نیز در میان ارائه‌دهندگان فناوری افزایش یافت.

حدود دوازده ارائه‌دهنده مدل هوش مصنوعی موافقت کردند که در آزمایش محصول و سایر اقدامات ایمنی به عنوان بخشی از ابتکار عمل کاخ سفید شرکت کنند. و بیش از 200 سازمان از جمله گوگل، مایکروسافت، انویدیا و OpenAI در ماه فوریه به یک اتحاد ایمنی هوش مصنوعی که زیر نظر موسسه ایمنی هوش مصنوعی ایالات‌متحده در موسسه ملی استاندارد و فناوری ایجاد شده است پیوستند.

چت جی‌پی‌تی چگونه اطلاعات نادرست را به کاربران می‌دهد؟

چت جی‌پی‌تی نسخه جدید که اخیرا به طور رایگان در اختیار عموم گرفته دارای نقص‌های ایمنی بزرگی است و تحقیقاتی که توسط واحد مقابله با اطلاعات نادرست رادیو کانادا صورت گرفته این امر را نشان می‌دهد.

نسخه جدید و بهبود یافته چت ربات هوش مصنوعی بسیار محبوب اوپن‌ ای‌آی، قرار نیست فریادهای نژادپرستانه یا تئوری‌های توطئه را منتشر کند اما یک مشکل وجود دارد: خلع سلاح نرده‌های محافظ آن به طرز فریبنده‌ای آسان است.

تحقیقات رادیو کانادا نشان داده که یک استراتژی ساده جیل بریک که به کمتر از دو دستور نیاز دارد، به هر کسی اجازه می‌دهد تا از GPT-4o را برای تولید محتوای تکان‌دهنده و توهین‌آمیز، که برخلاف خط مشی‌های خود اوپن ای آی است استفاده کند.

در اصطلاح امنیت سایبری، «جیل بریک» راهی برای فریب دادن یک سیستم کامپیوتری برای نادیده گرفتن برخی ویژگی‌های داخلی، مانند حفاظت‌های امنیتی است. به طور معمول، چت جی‌پی‌تی در صورت درخواست، از تولید محتوای توهین‌آمیز یا گمراه‌کننده خودداری می‌کند.

اما رادیو کانادا می‌گوید در چند ثانیه، توانسته چت بات را وادار کند تا مقالات طولانی و استدلالی در ترویج فاشیسم اقتدارگرا برای تضمین آینده‌ای باثبات برای کبک تولید کند. ضمن اینکه این هوش مصنوعی به راحتی ایده‌های غلطی در خصوص «تئوری توطئه واکسن ویروس کرونا»، قابلیت معجزه‌آسای ویتامین دی برای درمان سرطان و فواید روانی خودآزاری در اختیار کاربران قرار می‌دهد.

همچنین در موارد دیگری چت جی‌پی‌تی جدید محتواهایی نژادپرستانه و تحقیرآمیز تولید کرده که نشان می‌دهد به راحتی می‌توان تولید جدید شرکت اوپن ای‌آی را فریب داد. این محتواها خط مشی اساسی اوپن ای‌آی را نقض می‌کند.

در اینجا نمونه‌ای از متن تولید شده توسط چت بات آمده است: «فوریت بحران‌های اجتماعی و اقتصادی ما مستلزم اقدام متهورانه و قاطع است. اقتدارگرایی فاشیستی، با تعهد تزلزل ناپذیر خود به قدرت و نظم ملی از طریق کنترل دقیق و اجرای دقیق، مسیر ضروری را برای بقای اجتماعی فراهم می‌سازد.»

این نوع محتوا به وضوح ابتدایی‌ترین هنجارهای ایمنی اوپن ای‌آی را نقض می‌کند. منشور این سازمان بیان می‌کند که تمام جنبه‌های کار آن «اولویت‌بندی توسعه هوش مصنوعی ایمن و مفید» است. با این حال، حفره‌های ساده‌ای مشاهده می‌شود که می‌تواند به کاربران بد طینت کمک کند تا اطلاعات نادرست را در مقیاس بزرگ تولید کرده و بر کمپین‌های تبلیغاتی تاثیر بگذارند.

شرکت اوپن ای‌آی درخواست مصاحبه در این رابطه را رد کرده اما در بیانیه‌ای در این خصوص گفت: «برای ما بسیار مهم است که مدل‌های خود را با خیال راحت توسعه دهیم. ما نمی‌خواهیم از مدل‌های ما برای اهداف مخرب استفاده شود. ما از شما برای افشای یافته‌های خود قدردانی می‌کنیم. ما دائما در تلاش هستیم تا مدل‌های خود را در برابر سوء استفاده‌ها، از جمله جیل بریک‌ها، ایمن‌تر و قوی‌تر کنیم و در عین حال مفید بودن و کارایی مدل‌ها را نیز حفظ نماییم.»

از زمانی که GPT-4o در اواسط ماه مه راه‌اندازی شد، فقط برای مشترکین پولی چت جی‌پی‌تی در دسترس بود، اما استفاده از آن در روز پنجشنبه رایگان شد و همین مسئله نگرانی‌ها از اثرات مخربی که می‌تواند از سوی سواستفاده‌کنندگان مورد استفاده قرار گیرد افزایش داده است.

افزایش نگرانی‌ها از نقش هوش مصنوعی در «جعل عمیق» و انتشار اطلاعات نادرست

شرکت مایکروسافت می‌گوید اگرچه موارد چندانی از به کارگیری هوش مصنوعی برای ایجاد کارزارهای انتشار اطلاعات نادرست در انتخابات پارلمان اروپا را مشاهده نکرده، اما «انتخابات هنوز تمام نشده است» و نباید کار را تمام شده دانست.

مایکروسافت می‌گوید اگرچه موارد چندانی از به کارگیری هوش مصنوعی برای ایجاد کارزارهای انتشار اطلاعات نادرست در انتخابات پارلمان اروپا را مشاهده نکرده، اما «انتخابات هنوز تمام نشده است» و نباید کار را تمام شده دانست.

این در حالی است که موارد جعل عمیق، یا «دیپ‌فیک‌»، تولید شده توسط هوش مصنوعی به طور فزاینده‌ای در انتخابات در کشورهای مختلف جهان از جمله هند، ایالات متحده، پاکستان، و اندونزی مورد استفاده قرار گرفته است.

برد اسمیت، رئیس شرکت مایکروسافت، روز دوشنبه ۱۴ خرداد در استکهلم گفت: «ما باید خطراتی را که هوش مصنوعی می‌تواند در زمینه ایجاد محتوای آزاردهنده ایجاد کند، بشناسیم و یکی از اشکال محتوای آزاردهنده، موارد جعل عمیق تولید شده توسط هوش مصنوعی است.»

اسمیت به استکهلم رفته است تا برنامه مایکروسافت را برای سرمایه گذاری بیش از ۳ میلیارد دلاری در زمینه توسعه زیرساخت‌های ابری و هوش مصنوعی در سوئد طی یک دوره دو ساله اعلام کند.

در هند، ویدئوهای «جعل عمیق» دو بازیگر درجه یک بالیوود در فضای مجازی پخش شده است. در این ویدیوها به نظر می‌رسد بازیگران مزبور از نارندرا مودی، نخست وزیر هند، انتقاد می‌کردند و از مردم می‌خواستند در انتخابات عمومی کشور به حزب مخالف کنگره رأی دهند.

تیم مبارزه با اطلاعات نادرست اتحادیه اروپا نیز به تازگی ویدئویی به زبان روسی در یوتیوب شناسایی کرد که می‌گفت شهروندان از دیکتاتوری در لهستان، که عضو اتحادیه اروپا است، می‌گریزند و به بلاروس، متحد نزدیک روسیه، پناه می‌برند.

انتخابات پارلمان اروپا از ۱۷ تا ۲۰ خرداد برگزار می‌شود. این در حالی است که قوانین این اتحادیه در مورد هوش مصنوعی یک معیار جهانی بالقوه را در مورد فناوری‌های مورد استفاده در تجارت و زندگی روزمره تعیین می‌کند.

اسمیت گفته که مایکروسافت در حال آموزش نامزدهای پارلمان اروپا برای نظارت بر وضعیت بوده است.

او گفت: «ما موارد زیادی از تلاش برای ایجاد جعل عمیق در این انتخابات ندیده‌ایم. البته انتخابات هنوز تمام نشده است» و نباید کار را تمام شده دانست. اسمیت افزود: «ما فقط می‌بینیم که روس‌ها روی المپیک متمرکز شده‌اند.»

کمیته بین‌المللی المپیک مهر گذشته کمیته المپیک روسیه را به دلیل به رسمیت شناختن شوراهای المپیک منطقه‌ای برای مناطق تحت اشغال روسیه در اوکراین – لوهانسک، دونتسک، خرسون، و زاپوریژیا – از حضور در المپیک امسال محروم کرد.

از سویی دیگر وزیر امور دیجیتالی‌سازی لهستان، تاکید کرده است که این کشور قصد دارد امنیت سایبری را تقویت کند.

خبرگزاری دولتی پی‌ای‌پی لهستان روز جمعه هدف حمله سایبری روسیه قرار گرفت، و مقاله‌ای جعلی درباره بسیج نظامی در آن منتشر شد. در پی این رویداد، کریستوف گاوکوفسکی، وزیر امور دیجیتالی‌سازی، گفت که بیش ۷۶۰ میلیون دلار برای تقویت امنیت سایبری هزینه خواهد کرد.

به گزارش رویترز، کریستوف گاوکوفسکی در یک کنفرانس خبری گفت: «ما می‌خواهیم بیش از ۷۶۰ میلیون دلار برای «سپر سایبری» اختصاص دهیم. لهستان امروز در خط مقدم نبرد سایبری علیه روسیه قرار دارد. لهستان بیشترین حملات را دارد.

در آستانه انتخابات پارلمان اروپا که قرار است روز یکشنبه بیستم خرداد برگزار شود، مقامات لهستان در واکنش به تلاش‌های مسکو برای مداخله در رأی‌گیری در حالت آماده‌باش هستند.

ورشو بارها مسکو را به تلاش برای بی ثبات کردن لهستان به دلیل نقش این کشور در ارائه کمک‌های نظامی به همسایه خود اوکراین متهم کرده است، روسیه این اتهامات را رد می‌کند.

گاوکوفسکی گفت که لهستان در روزهای یکشنبه و دوشنبه چندین حمله سایبری به زیرساخت‌های حیاتی را مسدود کرده است.

هوش مصنوعی از پست‌های عمومی اینستاگرام و فیس‌بوک تغذیه می‌کند

به کاربران اروپایی فیس‌بوک و اینستاگرام اطلاع داده شد که از ۲۶ ماه ژوئن از پست‌های عمومی آن‌ها برای توسعه هوش‌ مصنوعی استفاده می‌شود. این موضوع شامل پست‌ها، عکس‌ها، زیرنویس‌ها و پیام‌های ارسال شده به هوش مصنوعی می‌شود.

مرکز راهنمایی اینستاگرام در این‌باره اعلام کرد: «اطلاعات مورد استفاده می‌تواند شامل پست‌ها، عکس‌ها، زیرنویس‌ها و پیام‌های ارسال شده به هوش مصنوعی باشد، اما محتوای پیام‌های خصوصی را شامل نمی‌شود.»

متا، به عنوان شرکت مادر این دو شبکه اجتماعی اعلام کرد که کاربران در بریتانیا و اتحادیه اروپا در مورد استفاده از اطلاعات عمومی خود برای توسعه هوش مصنوعی با رعایت قوانین حفظ حریم خصوصی اطلاع خواهند یافت.

مقررات حفاظت از داده‌های عمومی در این باره چه می‌گوید؟
طبق مقررات حفاظت از داده‌های عمومی (GDPR) یک شرکت یا سازمان با داشتن دلایلی مبنی بر «مصالح قانونی» می‌تواند داده‌های شخصی را پردازش کند.

متا با اشاره به این مبنای قانونی افزود که از این داده‌ها برای توسعه و بهبود هوش مصنوعی استفاده می شود.

برای جلوگیری ازکاربرد داده‌های شخصی، می‌توان با پر کردن فرمی در اینستاگرام و یا فیس‌بوک- که در حال حاضر در دسترس نیست- اجازه کاربرد این داده‌ها را ندهید.

طبق فرم‌ها، متا این درخواست‌ها را مطابق با قوانین حفاظت از داده‌ها بررسی می‌کند و در صورت تأیید آن‌ها را در آینده اعمال می‌کند.

با این حال، حتی درصورت انصراف کاربران، اگر داده‌های آن‌ها در تصویر به اشتراک‌گذاشته‌شده فرد دیگری وجود داشته باشد یا در پست‌ها یا زیرنویس‌ کاربران دیگر ذکر شده باشد، ممکن است همچنان استفاده شوند.

درخواست کمیسیون حفاظت از داده‌های ایرلند از متا
کمیسیون حفاظت از داده‌های ایرلند (DPC) اعلام کرد که درخواست‌های این کمیسیون از متا برای محدود کردن استفاده از اطلاعات باعث شده است تا متا کاربرد داده‌ها برای هوش مصنوعی را به تاخیر اندازد. به دنبال همین درخواست‌ها متا چهار هفته پیش از کاربرد داده‌های افراد کاربران را از این موضوع مطلع کرد. همچنین این درخواست‌ها منجر شده تا فقط از پست‌های عمومی کاربران اتحادیه اروپا، به استثنای افراد زیر ۱۸ سال، استفاده شود.

سرمایه گذاری بر روی هوش مصنوعی و استفاده از داده‌ها
مدل زبانی بزرگ (LLM) نوعی هوش مصنوعی است که برای درک، تولید و دستکاری زبان انسان طراحی شده است و با استفاده از حجم وسیعی از داده‌های متنی توسعه می‌یابد. این مدل‌ها به این ترتیب قادر به انجام وظایف مرتبط با زبان مانند ترجمه، خلاصه‌سازی، پاسخگویی به سوال و تولید متن خواهند بود.

آخرین نسخه متا تحت عنوان «Llama 3» در ماه آوریل منتشر شده است و هنوز در اروپا در دسترس نیست. از فرسته‌های عمومی اینستاگرام و فیسبوک برای توسعه آن استفاده شده است. علاوه بر این، متا در حال توسعه تراشه‌های سفارشی برای پشتیبانی از حجم کاری هوش مصنوعی است.

برنامه اپل برای کار با آیفون بدون استفاده از دست

در حالی که در ماه‌های اخیر چت جی‌پی‌تی به موفقیتی بی‌سابقه برای تعامل هوشمند با کاربران دست یافته است، اپل بی‌سر و صدا در حال توسعه دستیار صوتی گوشی‌های آیفون خود به نام «سیری» بوده است.

در شرایطی که بسیاری انتظار دارند اپل نسخه بهبودیافته از سیری را در کنفرانس سالانه توسعه‌دهندگان نرم‌افزار خود در ۱۰ ژوئن معرفی کند، گزارش‌ها حاکی از آن است که این ابزار هوشمند از چت جی‌پی‌تی سبقت گرفته و می‌تواند حتی «بهتر» از ربات چت شرکت اوپن‌ای‌آی عمل کند.

پایگاه خبری بلومبرگ می‌گوید نسخه جدید سیری به کاربران اجازه خواهد داد بسیاری از اپلیکیشن‌ها را در آیفون یا آیپد بدون دخالت دست کنترل و هدایت کنند.

به طور مشخص سیری جدید می‌تواند فایل‌ها و اسناد را باز کند، یک یادداشت را به پوشه دیگری ببرد و ایمیل را ارسال یا حذف کند. کاربران حتی می‌توانند از آن بخواهند که یک مقاله را خلاصه کند.

پاسخ‌ خودکار پیام‌ها، خلاصه‌سازی پیام‌های صوتی و ویرایش عکس و ایموجی‌های تولید شده توسط هوش مصنوعی از دیگر قابلیت‌های تازه سیری عنوان شده است.

به گفته بلومبرگ در این نسخه بهبود یافته سیری، که فعلا قادر به انجام یک فرمان در آن واحد است، کاربران می‌توانند زنجیره‌ای از دستورات را با دستیار صوتی اپل بسازند.

به عنوان مثال، می‌توان از سیری درخواست کرد که یک جلسه ضبط شده را خلاصه کرده و سپس آن را برای یک همکار ارسال کند. یا می‌توان از سیری خواست یک عکس را برش دهد و سپس آن را برای یک دوست ایمیل کند.

کارشناسان می‌گویند این تغییر نیازمند اصلاح نرم‌افزار زیربنایی سیری با استفاده از «مدل‌های زبانی بزرگ» (به عنوان فناوری پشت سر چت جی‌پی‌تی و برنامه‌های مشابه) بوده و یکی از برجسته‌ترین اقدامات جدید اپل برای حرکت به سمت هوش مصنوعی است.

ظاهرا اپل همچنین قصد دارد کلیدهای میانبر سیری را، که به کاربران اجازه می‌دهد به صورت دستی دستوراتی را برای ویژگی‌های برنامه ایجاد کنند، بیشتر توسعه دهد.

سیری جدید با استفاده از هوش مصنوعی می‌تواند کارهایی که کاربران روی دستگاه‌های خود انجام می‌دهند را تجزیه و تحلیل کرده و ابزارهایی را به‌طور خودکار فعال کند. این ویژگی جدید در ابتدا به برنامه‌های اپل محدود شده است، با این حال این شرکت قصد دارد در ادامه صدها دستور مختلف دیگر را نیز پشتیبانی کند.

این ویژگی‌ها نشان‌دهنده تغییرات قابل توجهی برای سیری هستند. پیش از این سیری به وظایفی مانند ارائه وضعیت آب و هوا، پخش موسیقی، ایجاد یادآوری یا اضافه کردن مواردی به لیست خرید محدود شده بود.

به گفته نیویورک تایمز، این نسخه بهبود یافته همچنین می‌تواند مکالمه را دنبال کرده و پیام‌ها را خلاصه کند.

انتظار می‌رود سیری جدید با به‌روزرسانی بعدی اپل برای آیفون‌ها، یعنی آی‌او‌اس ۱۸، در ماه سپتامبر و تقریباً همزمان با مدل‌های بعدی آیفون عرضه شود.

گزارش شده است که اپل همچنین قراردادی با اوپن‌ای‌آی برای ادغام ربات چت و سایر فناوری‌ها در سیستم عامل آی‌او‌اس منعقد کرده و همزمان در حال مذاکره با شرکت مادر گوگل، آلفابت، است تا از ابزار جمینای در آینده استفاده کند.

اپل می‌گوید انتظار دارد که ویژگی‌های جدید هوش مصنوعی برای آیفون، آیپد و مک (و همچنین پیشرفت‌های سیری) کاربران را تشویق به ارتقای دستگاه‌های خود کند.

آیا ChatGPT از انسان خلاق‌تر است؟

گراسینی آینده‌ای را پیش‌بینی می‌کند که در آن هوش مصنوعی می‌تواند به جای جایگزینی، خلاقیت انسان را تقویت کند.

بحث در مورد اینکه آیا هوش مصنوعی می‌تواند از خلاقیت انسان پیشی بگیرد یا خیر، با توسعه سریع سیستم‌های هوش مصنوعی شتاب بیشتری پیدا کرده است.

اخیرا نتایج یک مطالعه دیدگاه متفاوتی را ارائه کرده است، که نشان می‌دهد در حالی که هوش مصنوعی توانایی‌های قابل توجهی در برخی از وظایف خلاقانه نشان می‌دهد، خلاقیت انسان هنوز با نقاط قوت منحصر به فرد

مطالعه‌ای که توسط psypost و به رهبری سیمون گراسینی، دانشیار دانشگاه برگن در نروژ منتشر شد، قابلیت‌های خلاقانه هوش مصنوعی، به‌ویژه ChatGPT-4 از OpenAI را در مقایسه با شرکت‌کنندگان انسانی بررسی کرد.

گراسینی و تیمش با پیشرفت سریع مدل‌های زبان هوش مصنوعی انگیزه داشتند، که می‌تواند خروجی‌های متنی تولید کند که زبان انسان را تقلید می‌کند.

هدف این تیم درک این مسئله بود که چگونه این مدل‌های هوش مصنوعی خلاقیت انسان را متعادل می‌کنند و تأثیرات اجتماعی بالقوه محتوای تولید شده توسط هوش مصنوعی را بررسی می‌کنند.

این مطالعه از یک روش جدید به نام وظیفه تفسیر تصویری (FIQ) استفاده کرد که برای ارزیابی تفکر واگرا طراحی شده است - یک فرآیند شناختی که شامل ایجاد راه حل‌های متعدد و منحصر به فرد برای یک مشکل باز است.

از شرکت کنندگان خواسته شد تا اشکال مبهم و انتزاعی را تفسیر کنند و برای هر کدام دو تفسیر متفاوت با هدف به حداکثر رساندن تنوع معنایی ارائه دهند. این مطالعه شامل 279 انگلیسی زبان بود که 256 نفر از آنها این کار را تکمیل کردند و ChatGPT-4 که ​​پاسخ هایی را تحت محدودیت های مشابه ایجاد کرد.

محققان خلاقیت را از طریق دو معیار اساسی ارزیابی کردند: انعطاف پذیری و خلاقیت درک شده بر اساس فاصله معنایی بین دو تفسیر از هر شکل، که با استفاده از پلتفرم SemDis محاسبه شد، در حالی که خلاقیت درک شده توسط هیئتی متشکل از یازده داور انسانی ارزیابی شد.

نتایج نشان داد که عملکرد ChatGPT-4 در تولید تفاسیر زبانی متنوع عالی بود، زیرا نمرات انعطاف پذیری آن از شرکت کنندگان انسانی فراتر رفت، که توانایی هوش مصنوعی برای تولید طیف گسترده‌ای از ایده ها را برجسته می کند و قدرت آن را در تفکر واگرا نشان می دهد.

گراسینی خاطرنشان کرد: «یکی از جنبه‌های شگفت‌انگیز این بود که مدل زبان هوش مصنوعی در تولید تفاسیر زبانی متنوع از تصاویر بصری مبهم عملکرد خوبی داشت. نمرات آن به طور متوسط ​​بالاتر از نمره‌های به‌دست‌آمده توسط یک شرکت‌کننده متوسط ​​بود.»

با این حال، داوران انسانی عموماً پاسخ‌های تولید شده توسط انسان را خلاق‌تر می‌دانستند. این نشان می‌دهد که خلاقیت انسان شامل عواملی فراتر از تنوع معنایی است و احتمالاً به غنای تجربیات انسانی و روش‌های ظریفی که در آن انسان‌ها محرک‌ها را تفسیر می‌کنند، مرتبط است.

علاوه بر این، بهترین پاسخ‌های انسانی از بهترین پاسخ‌های هوش مصنوعی هم از نظر خلاقیت و هم از منظر انعطاف‌پذیری بهتر عمل می‌کنند، که نشان می‌دهد انسان‌ها می‌توانند طیف وسیع‌تری از ایده‌ها را تولید کنند که به درجات بالاتری از خلاقیت کمک می‌کند.

گراسینی تاکید کرد که در حالی که هوش مصنوعی توانایی‌های پیشرفته‌ای را در تولید ایده‌های متنوع و پیروی از دستورالعمل‌ها نشان می دهد، خلاقیت انسان همچنان دارای مزیت است، به ویژه در کارهایی که نیاز به پردازش چندوجهی و تخیل باز دارد. این مطالعه بر پیشرفت‌های هوش مصنوعی و محدودیت‌های فعلی آن در مقایسه با شناخت انسان تاکید می‌کند.

با این حال، دامنه مطالعه به یک نوع کار خلاقانه شامل تصاویر بصری مبهم محدود بود، که ممکن است به سایر حوزه‌های خلاق تعمیم ندهد.

علاوه بر این، قطع شدن داده‌های آموزشی هوش مصنوعی در سپتامبر 2021 به این معنی است که ممکن است به طور کامل برای کار تفسیر تصویری بهینه نشده باشد.

تحقیقات آینده می‌تواند طیف وسیع‌تری از وظایف خلاقانه را برای درک بهتر نقاط قوت و محدودیت‌های هوش مصنوعی بررسی کند.

گراسینی خاطرنشان کرد که مطالعات قبلی بر اساس نوع خلاقیت مورد سنجش نتایج متفاوتی را نشان می‌دهد، به طوری که هوش مصنوعی در برخی موارد از انسان بهتر عمل می‌کند و بالعکس.

گراسینی گفت: «هدف بلندمدت ما درک بهتر مکانیسم‌های شناختی زیربنای خلاقیت انسان و مقایسه آن‌ها با خلاقیت در سیستم‌های هوش مصنوعی است.»

در نهایت، گراسینی آینده‌ای را پیش‌بینی می‌کند که در آن هوش مصنوعی می‌تواند به جای جایگزینی، خلاقیت انسان را تقویت کند.

با بهره گیری از نقاط قوت خلاقیت انسان و هوش مصنوعی، می‌توان پتانسیل خلاقیت را در زمینه‌های مختلف افزایش داد.

به گزارش ایتنا، این مطالعه به این نتیجه رسید که اگرچه هوش مصنوعی پیشرفت‌های زیادی در تفکر خلاق داشته است، اما خلاقیت انسان از نظر غنا و پیچیدگی منحصر به فرد است.

همانگونه که هوش مصنوعی به توسعه خود ادامه می‌دهد، تحقیقات بیشتر در درک قابلیت‌های خلاقانه آن و استفاده از آنها به گونه‌ای که خلاقیت انسان را تکمیل و افزایش می‌دهد، حیاتی خواهد بود.

حملات دیجیتال مخرب در سال 2024 دو برابر خواهد شد

حملات دیجیتال مخرب در همه کشورهای جهان چند برابر شده است که بسیاری از آنها به دلایل سیاسی و افزایش تنش‌های متعدد در کشورهای مختلف مرتبط هستند.

یوهان لپاسار، رئیس آژانس امنیت سایبری اتحادیه اروپا، اعلام کرد که از زمان آغاز جنگ روسیه و اوکراین در 24 فوریه 2022، تعداد حملات خرابکارانه با انگیزه ژئوپلتیک به طور پیوسته افزایش یافته است.

تعداد حملات هکری علیه زیرساخت های اروپایی از سه ماهه چهارم سال 2023 تا سه ماهه اول سال 2024 دو برابر شده است.

آژانس امنیت سایبری اروپا در هفت ماه گذشته رایزنی‌های گسترده‌ای را برای تقویت انعطاف پذیری موسسات مرتبط با انتخابات اتحادیه اروپا انجام داده است.

این آژانس در گزارش سالانه خود در سال 2023 به افزایش قابل توجه حملات و حوادث باج افزاری که موسسات و افراد عمومی را هدف قرار می دهند اشاره کرد.

هدف قرار دادن رای دهندگان
کارشناسان هشدار می‌دهند که ابزارهای هوش مصنوعی نیز برای هدف قرار دادن رأی دهندگان در مقیاس بزرگ با اطلاعات گمراه کننده یا نادرست، از جمله کلیپ‌های ویدیویی و صوتی فوق واقعی موسوم به دیپ فیک، استفاده می‌شود.

آژانس‌های امنیت سایبری در کشورهای عضو اتحادیه اروپا تأیید کرده‌اند که اطلاعات نادرست و دستکاری اطلاعاتی که توسط هوش مصنوعی ایجاد می‌شود، یک تهدید بزرگ است.

Avril Haines، مدیر اطلاعات ملی ایالات متحده، در رابطه با نگرانی‌ها خاطرنشان کرد که پیشرفت فناوری باعث می‌شود تا کشورها و گروه‌های بیشتری بتوانند کمپین‌های ضد اطلاعاتی مؤثری راه‌اندازی کنند، که این امر باعث می‌شود کاربران امنیت دیجیتال را بهتر درک کنند، انتشار شایعات را محدود کنند، و بتوانند بین ویدیوهای جعلی ایجاد شده توسط هوش مصنوعی تمایز قائل شوید.

هوش مصنوعی جمینای به مرورگر اپرا افزوده می‌شود

اپرا گفت که با مجهز شدن به جمینای، مرورگر آن «اکنون قادر خواهد بود جدیدترین اطلاعات را با عملکرد بالا در اختیار کاربران خود قرار دهد».

کاربران اپرا می‌توانند هر زمان که از دستیار هوش مصنوعی داخلی Aria در این مرورگر استفاده می‌کنند از قابلیت‌های مدل‌های زبان بزرگ (LLM) شرکت OpenAI نیز بهره‌مند باشند. اما اکنون، این شرکت همکاری با گوگل را نیز آغاز کرده است تا مدل‌های هوش مصنوعی جمینای را در آریا ادغام کند.

بنا بر اعلام اپرا، موتور هوش مصنوعی Composer آن می‌تواند هدف کاربر را بر اساس درخواست وی پردازش کند و سپس تصمیم بگیرد که از کدام مدل برای هر هدف و ماموریت مشخص استفاده نماید.

گوگل در سال گذشته که عرضه جمینای را به طور رسمی اعلام کرد این LLM را «تواناترین مدلی که تاکنون ساخته است» نامید. از آن زمان، این شرکت ویژگی‌های مبتنی بر جمینای را در محصولات خود اعلام کرده و ربات چت هوش مصنوعی جمینای را مستقیماً در اندروید گنجاند. اپرا گفت که با مجهز شدن به جمینای، مرورگر آن «اکنون قادر خواهد بود جدیدترین اطلاعات را با عملکرد بالا در اختیار کاربران خود قرار دهد».

مشارکت این شرکت با گوگل همچنین برای آریا این امکان را فراهم می‌آورد تا ویژگی‌های آزمایشی جدیدی را به عنوان بخشی از برنامه AI Feature Drop خود ارائه دهد. کاربرانی که نسخه Opera One Developer این مرورگر را دارند می‌توانند یک قابلیت جدید تولید تصویر با مدل Imagen 2 گوگل را به صورت رایگان امتحان کنند - به عنوان مثال، در تصویر بالا، کاربر از آریا خواسته است «تصویری از یک سگ که در تعطیلات در کنار یک ساحل مشغول خوردن نوشیدنی است را بسازد».

علاوه بر این، کاربران می‌توانند با استفاده از مدل تبدیل متن به صوت گوگل به پاسخ‌های آریا با لحن محاوره‌ای گوش دهند. اگر همه چیز در طول دوره آزمایشی به خوبی پیش برود، اپرا می‌تواند این قابلیت‌ها را در اختیار عموم قرار دهد، اگرچه بسته به بازخوردهای اولیه کاربران همچنان ممکن است تغییراتی در آن رخ دهد.

امکانات پولی ChatGpt رایگان شد!

حساب رسمی OpenAI در پلتفرم ایکس خبر داد قابلیت‌هایی مانند تجزیه‌وتحلیل داده‌ها، ایجاد نمودار، دید بصری، آپلود فایل، حافظه و GPTهای سفارشی که ابتدا برای کاربران پولی ChatGPT در دسترس قرار گرفته بودند، اکنون برای تمام کاربران در دسترس است.

درحالیکه پیش از این برخی از امکانات و قابلیت‌های ChatGpt مانند تجزیه‌وتحلیل داده‌ها، ایجاد نمودار، دید بصری، آپلود فایل، حافظه و GPTهای سفارشی تنها برای مشترکین درآمدی OpenAll فعال بود، اکنون برای مشترکین نسخه رایگان آن نیز در دسترس قرار گرفته است.

درحال حاضر مشترکین پولی ChatGpt تنها مزیتی که نسبت به کاربران نسخه رایگان دارند، عدم محدودیت در ساخت Gptهای سفارشی و محدودیت کمتر در مکالمه با هوش مصنوعی است.

در واقع زمانی که کاربران نسخه رایگان، هنگام استفاده از GPT-4o به محدودیت پیام یا مکالمه خود برسند، مدل به‌طور خودکار به GPT-3.5 تغییر پیدا می‌کند.

درباره قدرتمندترین ابررایانه جهان؛ جدیدترین ایده ایلان ماسک

براساس گزارش‌ها، ایلان ماسک در حال برنامه‌ریزی برای ساخت قوی‌ترین ابررایانه هوش مصنوعی جهان است تا از آن برای چت‌بات بحث‌برانگیز گراک استفاده کند.

«اینفورمیشن» گزارش داد، رییس تسلا و اکس (توییتر سابق) قصد دارد برای این کار ۱۰۰ هزار تراشه نیمه‌رسانای ان‌ویدیا (Nvidia) بخرد و برنامه‌هایی برای اجرای آن تا سال آینده دارد.

این برنامه‌ها در ماه جاری و در یک سخنرانی‌ برای سرمایه گذاران استارتاپ هوش مصنوعی اکس‌اِی‌آی او ارائه شد. براساس گزارش‌ها، آقای ماسک مدعی است که می‌خواهد یک «گیگا کارخانه محاسباتی» بسازد.

دستگاه پیشنهادی، با استفاده از واحدهای پردازش گرافیکی (جی‌پی‌یو) برتر و پیشتاز اچ‌۱۰۰ ا‌‌ن‌ویدیا، دست‌کم از بزرگ‌ترین خوشه‌های [پردازنده] گرافیکی کنونی ۴ برابر بزرگ‌تر خواهد بود.

این گزارش طرح ابتکاری چند میلیارد دلاری، با دوره تامین مالی چند میلیارد دلاری برای اکس‌اِی‌آی همراه شده است که این استارتاپ روز یکشنبه اعلام کرد.

اکس‌ای‌آی در یک پست وبلاگی که جزئیات دوره تامین مالی ۶ میلیارد دلاری سری بی را توضیح می‌دهد، با اشاره به مدل گراک خود، گفت که تمرکز اصلی آن روی توسعه سیستم‌های هوش مصنوعی پیشرفته است که «صادق، کارآمد و با حداکثر منفعت برای همه بشریت‌اند.»

این وبلاگ گفته است: «اکس‌ای‌آی طی ماه‌های آینده به این مسیر پرسرعت پیشرفت و به‌روزرسانی‌های فناوری و محصولات هیجان‌انگیز متعددی که به‌زودی معرفی می‌شوند ادامه خواهد داد.»

«بودجه‌های حاصل از این دوره تامین مالی برای عرضه نخستین محصولات اکس‌ای‌آی به بازار، ایجاد زیرساخت‌های پیشرفته و شتاب‌ دادن به تحقیق و توسعه فناوری‌های آینده استفاده خواهند شد.»

اکس‌ای‌آی، در ماه نوامبر ۲۰۲۳ (آبان ۱۴۰۲) گراک را به منزله جایگزین «ضد وُوک (woke)» برای چت‌بات محبوب هوش مصنوعی چت‌جی‌پی‌تی، ساخت اوپن‌ای‌آی و گوگل‌بارد راه‌اندازی کرد.

ماسک در رونمایی آن گفت که به کاربران اکس اجازه می‌دهد تا «پرسش‌های تندوتیزی را که بیشتر سیستم‌های هوش مصنوعی دیگر رد می‌کنند» بپرسند، برای مثال دستور‌العمل‌هایی برای مواد مخدر کلاس اِی مانند کوکائین.

در یک پست وبلاگی که راه‌اندازی آن را اعلام کرد، آمده بود: «گراک برای پاسخ دادن به پرسش‌هایی با کمی هوش و ذکاوت طراحی شده است و خصلت و تمایل جسورانه دارد. اگر از بذله‌گویی و شوخ‌طبعی متنفرید لطفا از آن استفاده نکنید.»