هوش مصنوعی غیرمتمرکز

هوش مصنوعی غیرمتمرکز

اخیراً شاهد خبرهای بزرگی در دنیای یادگیری ماشین و هوش مصنوعی مولد (Generative AI) بوده‌ایم، با انتشارهای جدید پیشگامانه و ادغام‌های پیشرفته. OpenAI مدل GPT-4 مورد انتظار خود را منتشر کرد، Midjourney آخرین مدل V5 خود را معرفی کرد و استنفورد مدل زبان Alpaca 7B خود را منتشر کرد. در همین حال، گوگل هوش مصنوعی مولد را در کل مجموعه Workspace خود راه‌اندازی کرد، در حالی که Anthropic دستیار هوش مصنوعی خود یعنی Claude را معرفی کرد، و مایکروسافت ابزار قدرتمند هوش مصنوعی مولد خود Copilot را در مجموعه Microsoft 365 ادغام کرد. اما اینها تمام اخبار نبوده‌اند زیرا یادگیری ماشین غیرمتمرکز یا هوش مصنوعی بر پایه پروژه‌های بلاکچینی نیز از خبرسازترین رویدادهای این روزها هستند.

سرعت توسعه و پذیرش هوش مصنوعی و یادگیری عمیق هیچ نشانی از کند شدن ندارد زیرا کسب‌وکارها شروع به درک ارزش هوش مصنوعی و اتوماسیون و نیاز به پذیرش این فناوری‌ها برای حفظ رقابت در بازار کرده‌اند.

علیرغم پیشرفت ظاهراً آرام توسعه هوش مصنوعی، چالش‌ها و تنگناهای اساسی وجود دارد که باید برطرف شوند. با استقبال بیشتر کسب‌وکارها و مصرف‌کنندگان از هوش مصنوعی، یک گلوگاه در مورد قدرت محاسباتی پدیدار می‌شود. محاسبات مورد نیاز برای سیستم‌های هوش مصنوعی هر چند ماه یکبار دو برابر می‌شود، در حالی که عرضه منابع محاسباتی برای حفظ سرعت تلاش می‌کند. علاوه بر این، هزینه آموزش مدل‌های هوش مصنوعی در مقیاس بزرگ با افزایش تقریباً 3100 درصدی در سال در طول دهه گذشته، همچنان افزایش می‌یابد. اما در نقطه مقابل، بلاکچین با راه حل‌های غیرمتمرکز خود توانسته به نوآوری‌هایی در زمینه یادگیری ماشین غیرمتمرکز برای حل این موضوع دست پیدا کند.

این روند به سمت افزایش هزینه‌ها و افزایش تقاضای منابع مورد نیاز برای توسعه و آموزش سیستم‌های پیشرفته هوش مصنوعی و یادگیری ماشین منجر به متمرکز شدن می‌شود، جایی که تنها نهادهایی با بودجه هنگفت قادر به انجام تحقیق و تولید مدل هستند. با این حال، چندین پروژه مبتنی بر رمزارز در حال ایجاد راه‌حل‌های غیرمتمرکز برای رسیدگی به این مسائل با استفاده از محاسبات باز و شبکه‌های هوشمند ماشینی هستند.

چالش‌های بنیادین هوش مصنوعی و یادگیری ماشین

پیشرفت هوش مصنوعی توسط سه عامل اصلی هدایت می‌شود:

  • نوآوری در الگوریتم: محققان دائماً در حال توسعه الگوریتم‌ها و تکنیک‌های جدیدی هستند که به مدل‌های هوش مصنوعی اجازه می‌دهد داده‌ها را با کارآمدتر و دقیق‌تر پردازش و تجزیه و تحلیل کنند.
  • داده ها: مدل‌های هوش مصنوعی به مجموعه داده‌های بزرگ به عنوان سوخت برای آموزش خود متکی هستند و آنها را قادر می‌سازد از الگوها و روابط درون داده‌ها بیاموزند.
  • محاسبه: محاسبات پیچیده لازم برای آموزش مدل‌های هوش مصنوعی به مقادیر زیادی قدرت پردازش محاسباتی نیاز دارد.

با این حال، دو مشکل اصلی وجود دارد که مانع توسعه هوش مصنوعی می‌شود. در سال 2021، به دست آوردن داده‌ها بزرگترین چالش پیش روی شرکت‌های هوش مصنوعی در مسیر توسعه هوش مصنوعی بود. سال گذشته، چالش مربوط به محاسبات، از مسائل مربوط به داده‌ها پیشی گرفت، به ویژه به دلیل عدم دسترسیِ بر اساسِ تقاضا (on-demand access) به منابع محاسباتی، ناشی از سطوح بالای تقاضا. اما خبر خوب آنکه ممکن است راهکارهای یادگیری ماشین غیرمتمرکز بتوانند این مشکل را به زودی حل کند.

مشکل دوم مربوط به ناکارآمدی در نوآوری در الگوریتم است. در حالی که محققان با استفاده از مدل‌های قبلی به بهبودهای تدریجی مدل‌ها ادامه می‌دهند، هوش یا الگوهایی که توسط این مدل‌ها استخراج می‌شود همیشه مغفول واقع می‌شود.

بیایید عمیق تر به این مشکلات بپردازیم.

گلوگاه محاسباتی و هوش مصنوعی غیرمتمرکز

آموزش مدل‌های یادگیری ماشین پایه به منابع وسیعی نیاز دارد که اغلب شامل استفاده از تعداد زیادی GPU در دوره‌های زمانی طولانی می‌شود. به عنوان مثال، Stablility.AI به 4000 پردازنده گرافیکی Nvidia A100 نیاز داشت که در فضای ابری AWS کار می‌کردند تا مدل‌های هوش مصنوعی خود را آموزش دهند که بیش از 50 میلیون دلار در ماه هزینه داشت. از سوی دیگر، GPT-3 که متعلق به OpenAI  می‌باشد با استفاده از 1000 پردازنده گرافیکی Nvidia V100 با هزینه 12 میلیون دلار آموزش داده شد.

شرکت‌های هوش مصنوعی اغلب با دو انتخاب روبرو هستند:

  1. سرمایه‌گذاری روی سخت‌افزار خود و قربانی کردن مقیاس‌پذیری، یا
  2. انتخاب ارائه‌دهندگان ابری و پرداخت قیمت‌های رو‌به‌افزایش.

در حالی که شرکت‌های بزرگ‌تر می‌توانند دومی را انتخاب کنند، شرکت‌های کوچک‌تر ممکن است توان این ولخرجی را نداشته باشند. با افزایش هزینه سرمایه، استارت‌آپ‌ها مجبور به کاهش هزینه‌های ابری هستند، حتی با وجود اینکه هزینه توسعه زیرساخت‌ها برای ارائه‌دهندگان بزرگ ابری تا حد زیادی بدون تغییر باقی مانده است.

هزینه بالای محاسبات برای هوش مصنوعی موانع قابل توجهی را برای محققان و سازمان‌هایی ایجاد می‌کند که به دنبال پیشرفت در این زمینه هستند. در حال حاضر، نیاز مبرمی به یک پلتفرم محاسباتی بدون سرور و مقرون به صرفه برای یادگیری ماشین وجود دارد، که در چشم انداز محاسبات سنتی وجود ندارد. خوشبختانه، چندین پروژه بلاکچینی در حال کار برای توسعه شبکه‌های محاسباتی یادگیری ماشین غیرمتمرکز هستند که می‌توانند این نیاز را برطرف کنند.

بلاکچین و آینده یادگیری عمیق

یادگیری عمیق در سال‌های اخیر به دلیل پتانسیل آن برای تصمیم گیری آگاهانه جذابیت زیادی پیدا کرده است. بخش بزرگی از سیستم‌های یادگیری عمیق امروزی مبتنی بر سرورهای متمرکز هستند و در ارائه شفافیت عملیاتی، قابلیت ردیابی، قابلیت اطمینان، امنیت و منشأ داده، کوتاهی می‌کنند. همچنین، آموزش مدل‌های یادگیری عمیق با استفاده از داده‌های متمرکز در برابر مشکل تک نقطه‌ای (Single point of failure) آسیب‌پذیر است.

فناوری بلاک‌چین منشأ مدل‌های یادگیری ماشین را به شکلی غیرمتمرکز امکان‌پذیر می‌کند، بنابراین به سیستم‌های هوش مصنوعی (AI) قابل اعتماد منجر می‌شود. فناوری بلاک‌چین یک سیستم قوی ارائه می‌کند و می‌تواند مشوق مشارکت‌کنندگانی باشد که داده‌های خود را به اشتراک می‌گذارند (مبادله و معامله داده) که برای آموزش مدل‌های یادگیری ماشین غیرمتمرکز استفاده می‌شود.

نوشته‌های مشابه