أحيانًا تقول الذكاء الاصطناعي أشياء خاطئة، ليس لأنها غبية، ولكن لأنه لا أحد يطلب منها المسؤولية.



لقد استخدمت العديد من "أدوات الذكاء الاصطناعي"، تكتب بسرعة، وترسم بشكل مقبول، ولكن في كل مرة أراها تتحدث بجدية وتؤلف بيانات، وتتناول المنطق بشكل عشوائي، أفهم شيئًا واحدًا: التوليد لم يكن أبدًا مشكلة؛ التحقق هو العقبة.

هذا هو السبب في اهتمامي بـ @Mira_Network.

إنه ليس بصدد محاولة إنشاء ChatGPT التالي، ولا يسعى لجمع مجموعة من وحدات معالجة الرسومات لإجراء مسابقات استدلال. بل إنه طرح سؤالًا من زاوية مختلفة - كيف يمكننا الوثوق بمخرجات الذكاء الاصطناعي؟

إجابة ميرا ليست "لدينا نموذج أقوى"، بل هي: "إذا كنت ترغب في جعل الذكاء الاصطناعي يتحدث، فعليك أن تجعل من الممكن التحقق منه، ومحاسبته، وإثباته."

أنت تستخدم الذكاء الاصطناعي لإنشاء محتوى داخل نظام Mira البيئي، حيث يتم تقسيمه إلى سلسلة من الأحكام الصغيرة، وإرسالها إلى عدة نقاط للتحقق، حيث يتم كتابة العملية على السلسلة، ويكون هناك توافق على النتائج، وفي حالة الخطأ يجب دفع تعويض.

يمكنك استخدامه لكتابة فقرة، البحث عن تعريف، أو إنشاء صورة، وسيخبرك بجانبها: من الذي قدم هذا الاستنتاج، هل هناك إجماع، وهل هو موثوق.

في السابق، كنت تستخدم الذكاء الاصطناعي، وكان عليك أن تستمع إليه وهو يروي القصص. الآن، مع ميرا، يمكنك أن ترى كيف يقوم بتسليم الواجبات.

لذا أقول إنها ليست تطبيقًا للذكاء الاصطناعي، بل تشبه "محكمة تتحدث بالذكاء الاصطناعي".

بالطبع يمكنك الاستمرار في استخدام الذكاء الاصطناعي لكتابة المقالات، ورسم الصور، والبحث عن المواد، ولكن عندما يبدأ هذا الشيء في اتخاذ قرارات بشأن النصائح الطبية، أو بنود العقود، أو أدلة التقاضي، فمن الأفضل أن يكون لديك مكان يمكن أن يتبنى فيه كل كلمة من كلماته.

ميرا هو المكان الذي يكون كذلك. ليس ليحكم عليك، ولكن لضمان أنك ترى ما هو ليس من تأليف الذكاء الاصطناعي.

@KaitoAI
شاهد النسخة الأصلية
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت