(Photo by Smith Collection/Gado/Getty Images)

چکیده

  • اکثر دستیارهای هوشمند دیجیتال که امروزه استفاده می‌شوند، اجاره‌ای هستند و کاربران کنترل کامل بر آن‌ها ندارند.
  • مدل‌های تجاری فعلی هوش مصنوعی به سودآوری از داده‌های کاربران می‌پردازند، بدون اینکه کاربران کنترل زیادی بر استفاده از داده‌های خود داشته باشند.
  • مالکیت واقعی بر هوش مصنوعی به کاربران امکان کنترل بر تصمیم‌گیری‌ها و پردازش داده‌ها را می‌دهد و از وابستگی به زیرساخت‌های متمرکز خارجی جلوگیری می‌کند.

چه کسی واقعاً کنترل دستیار هوشمند شما را در اختیار دارد؟ این سوالی است که بسیاری از افراد هنوز نپرسیده‌اند. امروزه میلیون‌ها نفر به دستیارهای دیجیتال متکی هستند، از دستگاه‌های صوتی گرفته تا ربات‌های هوشمند که در ابزارهایی مانند Google Workspace یا ChatGPT تعبیه شده‌اند. این سیستم‌ها به ما کمک می‌کنند که بنویسیم، سازماندهی کنیم، جستجو کنیم و حتی فکر کنیم. اما بیشتر آن‌ها به صورت اجاره‌ای مورد استفاده قرار می‌گیرند و این یعنی کسی دیگر کنترل آن را در اختیار دارد.

اگر دستیار دیجیتال شما فردا ناپدید شود، آیا می‌توانید کاری انجام دهید؟ اگر شرکت پشت آن شرایط را تغییر دهد، عملکرد را محدود کند یا از داده‌های شما به روش‌هایی که انتظار ندارید، بهره‌برداری کند چه؟ این نگرانی‌ها نظری نیستند؛ آن‌ها در حال حاضر رخ می‌دهند و به آینده‌ای اشاره می‌کنند که باید فعالانه شکل دهیم.

مدل تجاری کنونی هوش مصنوعی چه تأثیری بر کاربران دارد

هوش مصنوعی به شکلی که ما می‌شناسیم بر اساس یک اقتصاد اجاره‌ای بنا شده است. شما برای دسترسی هزینه می‌پردازید، اشتراک ماهیانه یا استفاده از API‌ها را خریداری می‌کنید و در عوض، “توهم” کنترل را دریافت می‌کنید. اما در پشت صحنه، ارائه‌دهندگان پلتفرم تمام قدرت را در اختیار دارند. آن‌ها انتخاب می‌کنند که چه مدل هوش مصنوعی ارائه شود، دستیار هوش مصنوعی شما چه کاری می‌تواند انجام دهد، چگونه پاسخ دهد و آیا شما می‌توانید همچنان از آن استفاده کنید.

حال، تصور کنید که ارائه دهنده شروع به اولویت‌بندی سودآوری کند، مانند گوگل که با نتایج تبلیغاتی خود این کار را انجام می‌دهد. همان طور که نتایج جستجو به شدت تحت تأثیر جایگذاری‌های پرداختی و منافع تجاری قرار می‌گیرند، احتمالاً همین اتفاق برای مدل‌های بزرگ زبان (LLM) خواهد افتاد. دستیار هوشمندی که به آن اعتماد کرده‌اید تغییر می‌کند و پاسخ‌ها را به نفع مدل تجاری ارائه‌دهنده تغییر می‌دهد و شما نمی‌توانید هیچ کاری انجام دهید. شما از ابتدا کنترل واقعی نداشتید.

مالکیت واقعی بر دستیار هوشمند چه معنایی دارد

برخلاف مدل‌های هوش مصنوعی غیرفعال، عامل‌ها سیستم‌های پویایی هستند که می‌توانند اقدامات مستقل انجام دهند. مالکیت به معنای کنترل بر منطق اصلی یک عامل، پارامترهای تصمیم‌گیری و پردازش داده‌هاست. تصور کنید عاملی که می‌تواند منابع را به صورت خودکار مدیریت کند، هزینه‌ها را پیگیری کند، بودجه‌ها را تنظیم کند و تصمیمات مالی را به نمایندگی از شما بگیرد.

در Olas، ما به سمت این آینده با Pearl حرکت کرده‌ایم، یک فروشگاه برنامه‌عامل‌های هوش مصنوعی که به عنوان یک برنامه دسکتاپ متحقق شده و به کاربران اجازه می‌دهد تا عامل‌های هوش مصنوعی خودمختار را با یک کلیک اجرا کنند و مالکیت کامل را حفظ کنند. امروز، Pearl شامل مجموعه‌ای از کاربردهاست که عمدتاً کاربران Web3 را هدف قرار می‌دهد تا پیچیدگی تعاملات کریپتو را ساده کند و تمرکز بیشتری بر کاربردهای Web2 دارد. عامل‌های موجود در Pearl دارای کیف پول‌های مستقل خود هستند، با استفاده از مدل‌های هوش مصنوعی متن‌باز عمل می‌کنند و به نمایندگی از کاربر به طور مستقل کار می‌کنند.

این حرکت تنها در مورد ابزارها نیست؛ بلکه در مورد عاملیت است. اگر ما به سمت هوش مصنوعی باز و متعلق به کاربر حرکت نکنیم، خطر بازمرکزی قدرت در دستان چند بازیکن غالب وجود دارد. اما اگر موفق شویم، نوع جدیدی از آزادی را باز می‌کنیم که در آن هوش نه اجاره‌ای، بلکه واقعاً متعلق به شماست، با هر انسان که توسط یک “ارتش” از عامل‌های نرم‌افزاری تکمیل می‌شود.

این فقط آرمان‌گرایی نیست. این امنیت خوب است. هوش مصنوعی متن‌باز قابل حسابرسی و بررسی همتاست. مدل‌های بسته جعبه‌های سیاه هستند. اگر روزی رباتی انسان‌نما در خانه شما زندگی کند، آیا می‌خواهید کد اجرایی آن به صورت انحصاری و تحت کنترل یک ارائه‌دهنده ابری خارجی باشد؟ یا می‌خواهید بتوانید دقیقاً بدانید که چه می‌کند؟

ما انتخابی داریم: می‌توانیم به اجاره دادن، اعتماد کردن و امیدوار بودن ادامه دهیم که چیزی خراب نمی‌شود، یا می‌توانیم مالکیت ابزارها، داده‌ها، تصمیم‌ها و آینده‌های خود را به دست آوریم.

نوشته‌های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *