ربات اینستاگرام عضوگرام

بازارچه96

سامانه پیام کوتاه

خرید فالوور و ممبر تلگرام

مطالب مهم

تبلیغات

سایت نیازمندی های بازارچه 96

لینک ساز




هوش مصنوعی چگونه می‌تواند همه‌گیری‌های بعدی را پیش از شروع متوقف کند؟

یادگیری ماشین، ضمن صرفه‌جویی میلیون‌ها دلار در بخش تحقیق‌و‌توسعه، می‌تواند زمان توسعه‌ی یک دارو یا واکسن را کاهش دهد.

در فصل آنفلوانزای امسال سیستم ایمنی بسیاری از مردم به‌شدت درحال فعالیت بود. براساس گزارش مرکز کنترل و پیشگیری بیماری (CDC)، در ماه‌های اخیر در اثر ابتلا به آنفلوانزا، بیش از ۱۸۰ هزار آمریکایی در بیمارستان بستری شده و ۱۰ هزار نفر نیز از دنیا رفتند. این در حالی است که ویروس کرونا نیز با سرعت نگران‌کننده‌ای درحال پیشروی در مناطق مختلف جهان است. ترس از شیوع ویروس کرونا حتی موجب شد کنگره‌ی جهانی موبایل در بارسلونا لغو شود. اما در آینده‌ی نزدیک، استفاده از هوش مصنوعی برای تولید واکسن و دارو می‌تواند به مهار بیماری قبل از اینکه تبدیل به همه‌گیری جهانی شود، کمک کند.

روش‌های متداول توسعه دارو و واکسن بسیار ناکارآمد هستند. پژوهشگران در آزمایشگاه‌ها چندین سال، به‌طور مداوم مشغول آزمایش مولکول‌های کاندیدا و آزمون و خطای روش‌های مختلف هستند. براساس گزارش مطالعه‌ای که در سال ۲۰۱۹ منتشر شد، توسعه‌ی یک درمان دارویی به‌طور متوسط هزینه‌ای برابر ۲/۶ میلیارد دلار دارد (بیش از دو برابر هزینه‌ی سال ۲۰۰۳) و تنها حدود ۱۲ درصد از داروهایی که وارد کارآزمایی‌های بالینی می‌شوند، تایید سازمان غذا و دارو را می‌گیرند. دکتر اوا ماریا اﺳﺘﺮاوچ، استادیار علوم دارویی و زیست‌پزشکی دانشگاه جورجیا گفت:

واقعا ۵ تا ۱۰ سال طول می‌کشد تا FDA دارویی را تصویب کند.

اگرچه به کمک سیستم‌های یادگیری ماشین، پژوهشگران حوزه‌ی زیست‌پزشکی می‌توانند اساسا مرحله‌ی آزمون و خطا را خلاصه کنند. پژوهشگران به‌جای اینکه به‌طور مداوم درمان‌های احتمالی را به‌صورت دستی امتحان کنند، می‌توانند از سیستم هوش مصنوعی استفاده کنند تا مولکول‌ها و ترکیبات موجود در یک پایگاه بزرگ داده را جستجو کرده و آن‌ها را براساس احتمال اثربخشی مرتب کند. جاشوا اسوامیداس، متخصص بیولوژی محاسباتی در دانشگاه واشنگتن در سال ۲۰۱۹ در مصاحبه با The Scientist گفته بود:

بسیاری از سوالاتی که پیش‌روی تیم‌های توسعه‌ی دارو است، دیگر از آن نوع سوالاتی نیست که مردم فکر می‌کنند بتوان ازطریق مرتب کردن داده‌ها در ذهن خود، پاسخ آن را پیدا کنند. به‌منظور جستجوی داده‌ها و پاسخ دادن به سوالات و کسب بینش در زمینه‌ی چگونگی انجام کارها، باید از روشی سیستماتیک استفاده کرد.

پژوهشگر

داروی تربینافین را درنظر بگیرید. تربینافین یک داروی ضدقارچ خوراکی است که برای درمان برفک در سال ۱۹۹۶ با نام تجاری لامیفیل وارد بازار شد. طی مدت سه سال، چندین نفر گزارش کردند که در اثر مصرف دارو دچار عوارض جانبی شده‌اند و تا سال ۲۰۰۸ سه نفر به‌خاطر مسمومیت کبدی از دنیا رفته و ۷۰ نفر نیز بیمار شده بودند. پزشکان دریافتند که یکی از متابولیت‌های تربینافین (TBF-A) علت آسیب کبدی بوده است اما در آن زمان متوجه نشدند که متابولیت مذکور چگونه در بدن تولید می‌شود. به این ترتیب، این مسیر متابولیکی به‌مدت یک دهه برای جامعه پزشکی همچنان یک معما بود تا اینکه در سال ۲۰۱۸، نالی‌دانگ از دانشگاه واشنگتن یک سیستم هوش مصنوعی را درزمینه‌ی مسیرهای متابولیکی آموزش داد تا ماشین بتواند مسیرهای احتمالی را که در آن کبد می‌تواند تربینافین را به TBF-A بشکند، پیدا کند. ظاهرا ایجاد متابولیت سمی یک فرایند دو مرحله‌ای بوده که تشخیص تجربی یکی از مراحل آن بسیار دشوار است اما قابلیت تشخیص الگوی هوش مصنوعی به آسانی آن را پیدا می‌کند. طی ۵۰ سال گذشته، بیش از ۴۵۰ دارو از بازار خارج شده‌اند که علت آن در بیشتر موارد، مسمومیت کبدی بوده است.

مقاله‌های مرتبط:

در همین راستا سازمان غذا و دارو وبسایتی تحت عنوان Tox21.gov دارد که یک پایگاه داده آنلاین متشکل از مولکول‌ها و سمیت نسبی آن‌ها دربرابر پروتئین‌های مختلف انسانی است. پژوهشگران امیدوارند با آموزش یک سیستم هوش مصنوعی با استفاده از این مجموعه داده‌ها، بتوانند سریع‌تر این موضوع را مشخص کنند که آیا یک درمان بالقوه می‌تواند موجب بروز عوارض جانبی شود. سام مایکل، مدیر ارشد فناوری اطلاعات مرکز ملی Advancing Translational Sciences که به ایجاد این پایگاه داده کمک کرده است، گفت:

ما در گذشته با یک چالش اساسی رو‌به‌رو بوده‌ایم: آیا می‌توان سمیت ترکیبات را از قبل پیش‌بینی کرد؟ این دقیقا برعکس کاری است که ما در غربال‌گری یک مولکول کوچک برای داروسازی انجام می‌دهیم. ما نمی‌خواهیم یک هدف دارویی پیدا کنیم بلکه می‌خواهیم احتمال سمی بودن ترکیبات را مشخص کنیم.

سیستم‌های هوش مصنوعی می‌توانند به طراحی واکسن بهتری برای بیماری‌هایی مانند آنفلوانزا نیز کمک کنند. در سال ۲۰۱۹، پژوهشگران دانشگاه فلیندرز استرالیا از هوش مصنوعی برای تقویت یک واکسن آنفلوانزای معمولی استفاده کردند که بدن هنگام مواجهه با آن غلظت‌های بالاتری از آنتی‌بادی‌ها تولید کند.

ویروس

البته ازنظر فنی این گونه نیست که بدون دخالت پژوهشگران، هوش مصنوعی به‌خودی‌خود یک واکسن را از اول تا آخر طراحی کند. پژوهشگران درگیر پژوهش یادشده، تحت هدایت نیکولای پترووسکی، استاد پزشکی دانشگاه فلیندرز، اول الگوریتمی به نام AI Sam (الگوریتم جستجوی لیگاندها) ساختند. این الگوریتم با هدف تمایز میان مولکول‌هایی که دربرابر آنفلوانزا موثر هستند، از مولکول‌هایی که اثری ندارند، آموزش داده شد. در ادامه، برنامه‌ی دومی برای ایجاد تریلیون‌ها ترکیب شیمیایی آموزش دید و داده‌های حاصل از آن با استفاده از الگوریتم اول (AI Sam) مورد تجزیه‌و‌تحلیل قرار گرفت. در این مرحله، الگوریتم باید مشخص می‌کرد که آیا ترکیبات پیشنهادی دربرابر آنفلوانزا تاثیری دارند یا نه. به این ترتیب، ترکیبات برتر انتخاب شدند و پژوهشگران آن‌ها را در آزمایشگاه ساختند. پس از آن، آزمایش‌های حیوانی انجام شد و نتایج نشان داد که واکسن تقویت‌شده نسبت‌به واکسن پیشین که چنین فرایندی را نگذرانده بود، موثرتر است.

با آغاز سال جدید میلادی، کارآزمایی‌های انسانی مقدماتی در کشور آمریکا شروع شد و انتظار می‌رود که حداقل تا ۱۲ ماه ادامه داشته باشد. اگر روند تایید واکسن با مشکلی مواجه نشود، واکسن تقویت‌شده می‌تواند طی دو سه سال در دسترس عموم قرار گیرد. این مدت زمان برای واکسنی که توسعه‌ی آن دو سال زمان برده است (نسبت‌به حالت معمول که ۵ تا ۱۰ سال طول می‌کشد)، بد نیست.

هوش مصنوعی -پزشکی

درحالی‌که سیستم‌های یادگیری ماشین می‌توانند مجموعه داده‌های عظیم را بسیار سریع‌تر از پژوهشگران بیولوژی مورد جستجو قرار داده و برآوردهای دقیق‌تری فراهم کنند و نیز ارتباطات ظریف میان اجزا را درنظر بگیرند، در آینده‌ی نزدیک نیز انسان‌ها همچنان در حلقه‌ی توسعه‌ی دارو حضور خواهد داشت. یک دلیل آن است که چه کسی می‌خواهد تمام داده‌های آموزشی مورد نیاز برای آموزش سیستم هوش مصنوعی را جمع‌آوری، ترکیب، سازماندهی، فهرست‌بندی و برچسب‌گذاری کند؟

حتی زمانی که سیستم‌های یادگیری ماشین کارآمدتر می‌شوند، اگر از داده‌های اریب یا ناقص استفاده شود، درست مانند دیگر سیستم‌های هوش مصنوعی، نتایج بهینه‌ای حاصل نخواهد شد. دکتر چارلز فیشر، بنیان‌گذار و مدیرعامل Unlearn.AI در ماه نوامبر نوشت:

بسیاری از مجموعه داده‌هایی که در پزشکی مورد استفاده قرار می‌گیرد، عمدتا مربوط به جوامع سفیدپوست اروپا و آمریکای شمالی است. اگر پژوهشگری یادگیری ماشین را درمورد یکی از این مجموعه داده‌ها به کار ببرد و یک نشانگر زیستی را برای پیش‌بینی پاسخ به درمان خاصی کشف کند، هیچ تضمینی وجود ندارد که آن نشانگر در جمعیت‌های متفاوت نیز به کار آید.

فیشر توصیه می‌کند که برای مقابله با تاثیر اریب داده‌ها روی نتایج از مجموعه داده‌های بزرگ‌تر، نرم‌افزارهای پیشرفته‌تر و کامپیوترهای قدرتمندتر استفاده شود. جیل بکر، مدیر عامل شرکت Kebotix نیز در این باره چنین توضیح داده است که یکی دیگر از اجزای مهم، «داده‌های پاک» است. این استارتاپ برای طراحی و توسعه‌ی مواد کمیاب و شیمیایی، از هوش مصنوعی درکنار رباتیک استفاده می‌کند. بکر توضیح داد:

ما سه منبع داده داریم. می‌توانیم داده‌های خود را تولید کنیم... مثلا هنگام محاسبات نیمه‌تجربی، همچنین آزمایشگاه‌هایی را برای تولید داده‌ها داریم و درکنار این‌ها، داده‌های خارجی نیز وجود دارند. داده‌های خارجی می‌تواند از مجلات باز (دسترسی آزاد) یا اشتراکی و نیز از ثبت اختراعات و شرکت‌های پژوهشی حاصل شود اما صرف‌نظر از منبع، ما زمان زیادی را صرف پاک‌سازی داده‌ها می‌کنیم.

مایکل نیز در این باره گفت:

درمورد این مدل‌ها، اطمینان از اینکه داده‌ها از فراداده‌های مناسبی برخوردار هستند، بسیار حیاتی است (فراداده: گروهی از داده‌ها که ویژگی‌های داده‌های دیگر را توصیف می‌کنند). این مساله به‌خودی‌خود اتفاق نمی‌افتد و باید برای آن تلاش کنید. این کار سخت است زیرا گران و زمان‌بر است.




پیشنهاد میشه بخونید : برای مشاهده جزئیات کامل این خبر «هوش مصنوعی چگونه می‌تواند همه‌گیری‌های بعدی را پیش از شروع متوقف کند؟»اینجا را کلیک کنید. شفاف سازی:خبر فوق در سایت منبع درج شده و صرفا در این سایت بازنشر شده است .چنانچه به خبر فوق اعتراض دارید جهت حذف آن «اینجا» را کلیک کنید.

گزارش تخلف

تمامی مطالب از سایت های مجاز فارسی و ایرانی تهیه و جمع آوری شده است، در صورت وجود هرگونه مشکل از طریق صفحه گزارش تخلف اطلاع دهید.

تبلیغات

اخبار برگزیده

هم اکنون میخوانند ..