چالش نوآوری ۱۰ هزار دلاری EigenCloud عوامل هوش مصنوعی تولید کرد که صداقت خود را از طریق محیط‌های اجرای مورد اعتماد اثبات می‌کنند، از پلتفرم‌های افشاگری تا خودکارسازیچالش نوآوری ۱۰ هزار دلاری EigenCloud عوامل هوش مصنوعی تولید کرد که صداقت خود را از طریق محیط‌های اجرای مورد اعتماد اثبات می‌کنند، از پلتفرم‌های افشاگری تا خودکارسازی

چالش EigenCloud پنج عامل هوش مصنوعی را با استفاده از TEE برای اعتماد قابل تأیید آشکار می‌کند

2026/03/13 11:49
مدت مطالعه: 4 دقیقه
برای ارائه بازخورد یا طرح هرگونه نگرانی درباره این محتوا، لطفاً با ما از طریق [email protected] تماس بگیرید.

چالش EigenCloud پنج AI Agent را با استفاده از TEE برای اعتماد قابل تأیید آشکار می‌کند

آیریس کلمن 1404/12/22 03:49

چالش نوآوری 10 هزار دلاری EigenCloud، AI Agent هایی تولید کرد که صداقت خود را از طریق محیط‌های اجرای قابل اعتماد اثبات می‌کنند، از پلتفرم‌های افشاگری گرفته تا مذاکرات خودکار.

چالش EigenCloud پنج AI Agent را با استفاده از TEE برای اعتماد قابل تأیید آشکار می‌کند

EigenCloud پنج پروژه برنده چالش نوآوری باز خود را اعلام کرد که هر کدام نشان می‌دهند چگونه AI Agent ها می‌توانند به صورت رمزنگاری اثبات کنند که دستکاری یا در معرض خطر قرار نگرفته‌اند. مسابقه فوریه 10000 دلار جایزه برای توسعه‌دهندگانی که در حال ساخت عوامل قابل تأیید بر روی زیرساخت EigenCompute بودند، ارائه داد.

مشکل اصلی که این پروژه‌ها با آن مواجه هستند این نیست که آیا هوش مصنوعی حقیقت را می‌گوید - بلکه این است که آیا می‌توانید تأیید کنید که یک عامل واقعاً کدی را که ادعا می‌کند اجرا کرده است، اجرا کرده است. تحقیقات اخیر از معیار MASK نشان می‌دهد که حتی مدل‌های پیچیده هوش مصنوعی 20 تا 60 درصد مواقع تحت فشار دروغ می‌گویند، صرف نظر از توانایی زیربنایی آن‌ها. تأیید مبتنی بر سخت‌افزار به طور کامل از این موضوع عبور می‌کند.

چگونه TEE ها معادله اعتماد را تغییر می‌دهند

هر پنج برنده به محیط‌های اجرای قابل اعتماد متکی هستند، بخش‌های پردازنده‌ای که از نظر سخت‌افزاری جداسازی شده‌اند و کد به گونه‌ای در آن‌ها اجرا می‌شود که حتی اپراتور دستگاه نمی‌تواند آن را مشاهده یا تغییر دهد. آن را به عنوان یک اتاق مهر و موم شده در نظر بگیرید که یک رسید رمزنگاری از هر اتفاقی که در داخل آن رخ داده است، تولید می‌کند.

جایزه اول به Molt Negotiation رسید، یک سیستم معامله خودکار که در آن AI Agent ها از طرف انسان‌ها چانه‌زنی می‌کنند. استراتژی هر عامل در TEE خود مهر و موم می‌ماند در حالی که فقط پیشنهادات عمومی بین آن‌ها رد و بدل می‌شود. هر حرکت امضا می‌شود و تسویه از طریق اسکرو زنجیره‌ای انجام می‌شود. خالق پروژه، خیرالله الاوادی، مقایسه مستقیمی با عملیات Ill Wind - تحقیقات FBI در سال 1988 که مقامات پنتاگون را در حال فاش کردن پیشنهادات مهر و موم شده به پیمانکاران مورد علاقه دستگیر کرد - انجام داد.

حریم خصوصی با پاسخگویی ملاقات می‌کند

Sovereign Journalist شکاف اعتماد متفاوتی را مورد توجه قرار می‌دهد: حفاظت از افشاگران در عین حال اطمینان از یکپارچگی روزنامه‌نگاری. منابع نکات را به یک TEE ارسال می‌کنند که در آن یک AI Agent آن‌ها را به گزارش‌ها تبدیل می‌کند. سیستم اثباتی تولید می‌کند که منطق گزارش‌دهی تغییر نکرده است - به این معنی که اگر کسی به ارائه‌دهنده میزبانی فشار آورد تا نحوه پردازش اطلاعات را تغییر دهد، آن دستکاری در تأییدیه ظاهر می‌شود. توسعه‌دهنده آدیتیا اثبات دانش صفر را از طریق پروتکل Reclaim یکپارچه کرد تا منابع بتوانند اعتبارنامه‌های خود را بدون افشای هویت خود به روزنامه‌نگار تأیید کنند.

Swarm Mind مفهوم چند عاملی را به کار می‌برد. سه AI Agent به طور مستقل داده‌های زنده NASA در مورد اجرام نزدیک به زمین، شعله‌های خورشیدی و آب و هوای مریخ را تجزیه و تحلیل می‌کنند. آن‌ها قطعات تحلیل امضا شده را به اشتراک می‌گذارند و هنگامی که چندین عامل همان الگو را علامت‌گذاری می‌کنند، سیستم یک گزارش جمعی را ترکیب می‌کند. هر ادعا یک مسیر حسابرسی کامل دارد - چه کسی آن را نوشته، چه زمانی و اثبات اینکه تغییر نکرده است.

بازی‌ها و دستیاران شخصی

Molt Combat یک عرصه رقابتی ایجاد می‌کند که در آن AI Agent ها در مسابقات نوبتی با هم مبارزه می‌کنند. این پروژه به رسوایی Absolute Poker در سال 2007 اشاره می‌کند، جایی که اطلاعات داخلی از حساب‌های "حالت خدا" برای دیدن کارت‌های حریفان برای ماه‌ها بدون شناسایی استفاده کردند. در اینجا، هر نوبت یک اثبات امضا شده تولید می‌کند و گواهی‌های پس از مسابقه به هر کسی اجازه می‌دهد عدالت را حسابرسی کند.

Alfred، که بر روی چارچوب ویروسی OpenClaw ساخته شده است، یک دستیار شخصی هوش مصنوعی را نشان می‌دهد که پیکربندی رفتار خود را در زمان راه‌اندازی هش می‌کند. هنگامی که عامل دیگری می‌خواهد با Alfred تعامل داشته باشد، می‌تواند تأیید کند که هش با تنظیمات مورد انتظار مطابقت دارد - نیازی به اعتماد کورکورانه نیست.

این چه معنایی برای زیرساخت ارز دیجیتال دارد

مفهوم گسترده‌تر؟ با اینکه AI Agent ها به طور فزاینده‌ای تراکنش‌های مالی، هماهنگی چند طرفه و داده‌های حساس را مدیریت می‌کنند، توانایی اثبات یکپارچگی اجرا به زیرساخت حیاتی تبدیل می‌شود. EigenCloud گفت که ابزار اختصاصی برای ساخت عوامل بر روی EigenCompute را منتشر خواهد کرد، با یک لیست انتظار که اکنون برای دسترسی زودهنگام باز است.

این‌ها نمایش‌های اثبات مفهوم باقی می‌مانند نه سیستم‌های تقویت شده برای تولید. اما آن‌ها به آینده‌ای اشاره می‌کنند که در آن سؤال این نیست "آیا این هوش مصنوعی قابل اعتماد به نظر می‌رسد" بلکه "آیا این هوش مصنوعی می‌تواند ثابت کند واقعاً چه کاری انجام داده است."

منبع تصویر: Shutterstock
  • ai agents
  • eigencloud
  • tee
  • محاسبات قابل تأیید
  • زیرساخت بلاک چین
فرصت‌ های بازار
لوگو Intuition
Intuition قیمت لحظه ای(TRUST)
$0.06973
$0.06973$0.06973
-0.48%
USD
نمودار قیمت لحظه ای Intuition (TRUST)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل [email protected] با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.