تحولات بنیادی در عصر داده های بزرگ

به گزارش وبلاگ ساعت دیواری، از اواخر دهه 2000 تا سال 2019 هیجان ها نسبت به هوش مصنوعی به تب شدیدی تبدیل شد، به نحوی که سبب تغییر نگرش ها نسبت به آن شد و بار دیگر منظره هوش مصنوعی به طور اساسی تغییر کرد. اما این تغییر منظره بر خلاف دهه 1980، تغییر به نفع رشد بلندمدت هوش مصنوعی و رشد صنعت فناوری های مرتبط با هوش مصنوعی است. این تغییرات نه تنها قرار است به توسعه هوش مصنوعی یاری کند بلکه قرار است هوش مصنوعی را به یک ضرورت بدل سازد.

تحولات بنیادی در عصر داده های بزرگ

استفاده از هوش مصنوعی به اسم یک کاربرد نوظهور که گهگاهی معرفی می شد تغییر کرد و هوش مصنوعی به اسم یکی از ارکان اساسی که در تار و پود تمام کار های آینده وجود خواهد داشت مطرح شد. همین حالا می توانیم چنین رخدادی را به وضوح در گوشی های هوشمند ببینیم که تراشه های اختصاصی برای محاسبات هوش مصنوعی در آن ها تعبیه شده اند. اگر این قابلیت ها خاموش شوند حتی نمی توانیم قفل گوشی را باز کنیم (تشخیص چهره) یا با آن ها متن بنویسیم (پیش بینی متن در زمان نوشتن).

حداقل سه نیروی محرکه به کارگیری تکنیک های هوش مصنوعی به یک ضرورت تبدیل خواهند شد. موضوع اول؛ اینکه ما در میزان داده ای که باید مدیریت شوند افزایش بی سابقه ای داشته ایم و باید به دقت آن ها را سازماندهی و براساس آن ها تصمیمات را اتخاذ کنیم. موضوع دوم؛ توان پردازشی که طی 50 سال گذشته از قانون مور پیروی نموده، اکنون به کارگیری الگوریتم های پیچیده را برای داده ها امکان پذیر ساخته است. عملکرد این الگوریتم ها (در حوزه های با محدوده های معین) در امتداد توانایی های انسان بوده است.

در کمترین حالت ممکن است این الگوریتم ها سبب ایجاد ابزار های همکاری مفیدی شوند که می توانند قابلیت های انسانی را افزایش دهند. موضوع سوم؛ رایانش ابری است که هم فضای ذخیره سازی و هم توان پردازشی را به صورت گسترده در دسترس قرار داده؛ بنابراین هر فردی می تواند به ابزار های پیچیده هوش مصنوعی دسترسی داشته باشد و از آن ها استفاده کند. ابزار های متن باز هم همین اقدامات را با قابلیت های سطح پایین تر انجام می دهند. هوش مصنوعی به گونه ای محبوب همگان شده که قبل از این، چنین موردی را شاهد نبوده ایم.

اولین تحول بنیادی، آن است که میزان و میزان فعالیت های ما با داده ها تغییر نموده است. داده ها همواره فراوری می شدند. سوال اینجا بود که آیا می گردد همه آن ها را دریافت، ذخیره سازی، بازیابی و تحلیل کرد؟ در سال های اخیر نسبت به این دیدگاه چالش های بزرگی ایجاد شد. اکنون می توانیم به صورت ارزان ای میزان بسیار زیادی از داده ها را ذخیره سازی کنیم (گرچه بیشتر آن ها هنوز داده های ساختار نیافته هستند) و می توانیم بخش بزرگی از این داده های ذخیره سازی شده را تحلیل کنیم.

اگر سری به سایت internetlivestats.com بزنید، تعداد حیرت انگیزی از اعداد را می بینید که به سرعت تغییر و افزایش پیدا می نمایند. وقتی یک روز صبح از ماه سپتامبر سال 2019 از مرکز اروپا این سایت را آنالیز کردم، اعداد نمایش داده شده به شکل زیر بودند: بیش از 115 میلیارد ایمیل در آن روز فرستاده شده بود؛ بیش از 35 میلیون عکس در اینستاگرام بارگذاری شده بود؛ بیش از 3 میلیاردجست وجو در سایت گوگل اجرا شده بود.

حالا دیگر استفاده از واژه هایی مثل سیل یا غرق شدن در داده ها برای تشریح شرایط حال حاضر اغراق آمیز نیست. بنابر تحقیقی که به وسیله وب سایت Raconteur اجرا شده، احتمالا ما در سال 2025 به حجم داده فراوریی 463 اگزابایت در روز می رسیم. درک اینکه 463 اگزابایت داده چه حجمی دارد سخت است. بنابر گزارش سال 2013 دانشگاه برکلی، تمام کلماتی که تا به حال به وسیله انسان ها بیان شده حداکثر 5 اگزابایت فضا اشغال می نماید؛ بنابراین ما 93 برابر این میزان داده را هر روزه فراوری خواهیم کرد.

افزایش حجم زیاد داده های فراوریی، ناشی از افزایش دستگاه هایی است که در ابزار های پوشیدنی، دستگاه های هوشمند خانه ها و صنعت به اینترنت اشیا متصل می شوند. فرصت ایجاد شده به وسیله هوش مصنوعی بیان نماینده این است که انسان ها به هیچ روش، شکل و ابعادی نمی توانند انتظار داشته باشند که حتی بخش کوچکی از این داده ها را بدون اتوماسیون تحلیل نمایند. تنها امید ما به کارگیری تحلیل های مقیاس بزرگ برای داده ها است.

اگر یک گام جلوتر برویم، می توانیم انتظار داشته باشیم که تا زمان جا افتادن تصمیم گیری اتوماتیک در سیستم ها، قادر به کنار آمدن با رشد تقاضا برای تصمیم گیری نخواهیم بود. برای آنالیز بعضی از احتیاج های حیرت انگیزی که بشر خواهد داشت، مثالی را از بخش آموزش بیان می کنیم. مطابق با اهدافی که مجمع عمومی سازمان ملل اتخاذ نموده، برای اینکه در سال 2030 هدف ارائه آموزش های ابتدایی تا قبل دانشگاه به تمام بچه ها محقق گردد به 69 میلیون معلم دیگر در سراسر دنیا احتیاج داریم. در سال 2018، 64 میلیون معلم در سراسر دنیا وجود داشتند.

این امر صرف نظر از معضلات کیفی مانند سطح آموزش خود معلمان است. برای آموزش تعداد معلمان کافی و رسیدن به اهداف خود، به میزان زیادی از پشتیبانی فناوری به منظور مقیاس پذیری آموزش معلمان، مقیاس پذیری آموزش شاگردان و دقیق تر از آن سنجش نتایج احتیاج داریم. تمام این موارد وابسته به مدیریت موثر داده ها و فرآیند های اتوماسیون هستند که به منابع انسانی اجازه دهند بر کاری که تخصص دارند، یعنی تعاملات انسان با انسان تمرکز نمایند.

در چین، شرکتی به نام Squirrel AI توانسته طی دو سال بیش از 700 مدرسه برای آموزش دوره 12 ساله بچه ها بسازد که بیش از یک میلیون دانش آموز را پوشش می دهد. کل سامانه به الگوریتم های پیچیده ای وابسته است که می توانند برنامه آموزشی را با احتیاج های فردی دانش آموزان تطبیق دهند.

شک داشتن به اینکه چطور این سامانه ها واقعا قرار است بر بچه ها و آموزش آن ها تاثیر داشته باشند منطقی است، اما در عین حال مجبوریم بپذیریم که چنین راه حل هایی تنها راه برای مدیریت رشد جمعیت و رشد احتیاج های آموزشی است. استفاده از پردازنده های گرافیکی به همراه پیشرفت های طراحی الگوریتم ها (به خصوص از سوی گروه جئوفری هینتون در دانشگاه تورنتو) منجر به تغییر بزرگی در کیفیت نتایج و کوشش برای رسیدن به این نتایج شد. این دو پیشرفت به روش های مختلف سبب شروع این فرآیند توقف ناپذیر شدند.

هوش مصنوعی به اسم یک صنعت ممکن است در بعضی نقاط با مشکل روبرو شده باشد، سرمایه گذاران آن ناراضی باشند و شاید نتوانسته تمام آن چیز هایی را که وعده داده بود محقق کند، اما به هر حال تکنیک هایی که تا به حال توسعه داده شده اند همواره در دسترس هستند و به خاطر کاربردپذیری گسترده ای که دارند همواره برای حل مسائل به کار خواهند رفت و حتی فراتر از آن به گونه ای که می بینیم دسترسی به هوش مصنوعی به وسیله رایانش ابری و نرم افزار های متن باز محبوبیت بسیاری پیدا نموده است.

مترجم: امیر علی رمدانی - دنیای اقتصاد

منبع: کتاب هوش مصنوعی در محیط کار

منبع: فرارو

به "تحولات بنیادی در عصر داده های بزرگ" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "تحولات بنیادی در عصر داده های بزرگ"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید