استفاده از هوش مصنوعی برای آشکارسازی امواج گرانشی

تجسم علمی از یک شبیه‌سازی‌ نسبی عددی که برخورد دو سیاهچاله را مطابق با ادغام سیاهچاله دوتایی  GW170814 توصیف می‌کند. شبیه‌سازی ‌در ابررایانه تتا با استفاده از منبع باز،‌ نسبیت عددی،‌ نرم‌افزار  Einstein Toolkit (https://einsteintoolkit.org) انجام شد.

اعتبار:  Argonne Leadership Computing Facility, Visualization and Data Analytics Group [Janet Knowles, Joseph Insley, Victor Mateevitsi, Silvio Rizzi].)

 

هنگامی که امواج گرانشی برای اولین بار در سال 2015 توسط رصدخانه پیشرفته لیزری و تداخل‌سنج موج گرانشی (LIGO) آشکارسازی شدند،‌ موجی در میان جامعه علمی شکل گرفت،‌ زیرا این کشف یکی دیگر از نظریه‌ها‌ی انیشتین را تأیید می‌کرد و تولدی دیگر در اخترشناسی موج گرانشی اتفاق افتاد. طی پنج سال بعدی،‌ بسیاری از منابع موج گرانشی،‌ از جمله اولین مشاهده برخورد دو ستاره نوترونی به صورت امواج گرانشی و الکترومغناطیسی،‌ آشکارسازی شد.

در حالی که لیگو LIGO و شرکای بین‌المللی آن به ارتقاء حساسیت آشکارسازهای خود نسبت به امواج گرانشی ادامه می‌دهند،‌ آنها قادر خواهند بود حجم بیشتری از جهان را کاوش کنند و در نتیجه آشکارسازی منابع موج گرانشی را به صورت رویدادهای روزمره درآورند. این روند رو به افزایش کشفیات،‌ عصر اخترشناسی دقیق را آغاز خواهد کرد که پدیده‌ها‌ی فراخورشیدی از جمله تابش الکترومغناطیسی،‌ امواج گرانشی،‌ نوترینوها و پرتوهای کیهانی را نیز شامل می‌شود‌. تحقق این هدف،‌ نیاز به بازنگری بنیادی در مورد روشهای موجود دارد، روشهایی که برای جستجو و یافتن امواج گرانشی مورد استفاده قرار می‌گیرد.

اخیراً،‌ دانشمند علوم محاسبات و سرآمد هوش مصنوعی(AI)  ترجمه الیو هیورتا از آزمایشگاه ملی آرگونه مربوط به وزارت انرژی ایالات متحده (DOE)،‌ در ارتباط با همکاران خود در آرگونه،‌ دانشگاه شیکاگو،‌ دانشگاه ایلینویز در Urbana-Champaign،‌ NVIDIA و IBM،‌ چارچوبی جدید در هوش مصنوعی با مقیاس تولید جدید را تشکیل داده است که امکان آشکارسازی شتابدار،‌ مقیاس‌پذیر و قابل تکرار امواج گرانشی را فراهم می‌کند.

این چارچوب جدید نشان می‌دهد که مدل‌ها‌ی هوش مصنوعی می‌توانند به اندازه الگوریتم‌ها‌ی تطبیق الگوهای سنتی حساس باشند،‌ اما دستورات آنها سریعتر است. افزون ‌بر این،‌ این الگوریتم‌ها‌ی هوش مصنوعی مانند آنچه در سیستم‌ها‌ی بازی ویدیویی یافت می‌شود برای پردازش داده‌ها‌ی پیشرفته LIGO اما سریعتر از زمان واقعی فقط به یک واحد پردازشگر گرافیکی ارزان‌قیمت (GPU) نیاز دارند.

گروه هوش مصنوعی مورد استفاده برای این مطالعه داده‌ها‌ی پیشرفته یک ماه کامل – آگوست 2017 – لیگو را در کمتر از هفت دقیقه پردازش کرد و مجموعه‌داده را روی 64 پردازنده گرافیکی NVIDIA V100 توزیع کرد. گروه هوش مصنوعی مورد استفاده توسط تیم برای این تجزیه و تحلیل،‌ هر چهار ادغام دوتایی سیاهچاله را که قبلاً در آن مجموعه‌داده شناسایی شده بودند،‌ شناسایی کرد و هیچ طبقه‌بندی غلطی را گزارش نکرد.

ایان فاستر،‌ مدیر بخش درک و دانش داده‌ها‌ (DSL) در آرگونه گفت: “به عنوان یک متخصص رایانه،‌ آنچه برای من در مورد این پروژه هیجان‌انگیز است، این است که نشان می‌دهد چگونه با استفاده از ابزارهای مناسب،‌ روش‌ها‌ی هوش مصنوعی می‌توانند به طور طبیعی در روند کار دانشمندان یکپارچه شوند و این مطلب به آنها این امکان را می‌دهد که کار خود را سریعتر و بهتر انجام دهند – در حالیکه این ابزار باعث تقویت هوش انسان و نه جایگزین آن است. ”

با ارائه منابع مختلف،‌ این تیم بین‌رشته‌ا‌ی و چند نهادی از همکاران، مقاله‌ا‌ی را در Nature Astronomy منتشر کرده است که یک رویکرد مبتنی بر داده را نشان می‌دهد که منابع ابررایانه‌ا‌ی و اشتراکی تیم را ترکیب می‌کند تا بتواند امواج گرانشی قابل تکرار،‌ شتابدارو مبتنی بر هوش مصنوعی را آشکارسازی کند.

هیورتا گفت: “در این مطالعه،‌ ما از قدرت ترکیبی هوش مصنوعی و ابررایانه برای کمک به حل به موقع آزمایش‌ها‌ی بزرگ داده‌ای مربوطه استفاده کرده‌ا‌یم. ما اکنون در حال انجام مطالعات هوش مصنوعی هستیم که به طورکامل قابل تکرار باشد،‌ نه اینکه فقط توانایی هوش مصنوعی را در ارائه راه حل جدیدی برای چالش‌ها‌ی بزرگ بررسی کنیم. ”

با توجه به ماهیت میان‌رشته‌ا‌ی این پروژه،‌ تیم منتظر برنامه‌ها‌ی کاربردی جدیدی از این چارچوبِ داده محور و فراتر از چالش‌ها‌ی بزرگ داده‌ای در علم فیزیک است.

بن بلایزیک،‌ پژوهشگری در آرگونه و دانشگاه شیکاگو گفت: “این کار ارزش قابل توجه زیرساخت‌ها‌ی داده را برای جامعه علمی برجسته می‌کند. سرمایه‌گذاری‌ها‌ی درازمدتی که توسط DOE،‌ بنیاد ملی علوم (NSF)،‌ مؤسسه ملی استاندارد و فناوری و دیگران انجام شده است،‌ مجموعه‌ا‌ی از بلوک‌ها‌ی سازنده را ایجاد کرده است. برای ما این امکان وجود دارد که این عناصر سازنده را با روشهای جدید و مهیج برای مقیاس‌گذاری این تحلیل در کنار هم قرار دهیم و به انتقال این قابلیت‌ها‌ به دیگران در آینده کمک کنیم. ”

هیورتا و تیم تحقیقاتی وی چارچوب جدید خود را از طریق پشتیبانی NSF،‌ برنامه تحقیق و توسعه آزمایشگاهی آرگونه  (LDRD) و تأثیر محاسباتی نوآورانه و جدید DOE بر نظریه و آزمون (INCITE) توسعه دادند.

مانیش پاراشار،‌ مدیر دفتر زیرساخت‌ها‌ی سایبری پیشرفته در NSF گفت: “این نوع سرمایه‌گذاری‌ها‌ی NSF شامل ایده‌ها‌ی اصیل و بدیعی است که بسیار در تغییر روش پردازش داده‌ها‌ی علمی نویدبخش است، یعنی آن دسته از داده‌هایی که در جریانهای سریع وارد می‌شوند. فعالیت‌ها‌ی برنامه‌ریزی‌شده در عمل برای بسیاری از جوامع علمی فناوری محاسبات تسریع‌شده و ناهمگن را به ارمغان می‌آورد‌”.

ترجمه: رویا قنادی

منبع:

New clues to why there’s so little antimatter in the universe

by Jennifer Chu, Massachusetts Institute of Technology

https://phys.org/news/2021-07-clues-antimatter-universe.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *