Иногда ИИ говорит неправильно, не потому что он глуп, а потому что никто не требует от него ответственности.
Я использовал много "AI инструментов", которые пишут быстро и рисуют неплохо, но каждый раз, когда я вижу, как они серьезно создают данные и бессмысленно рассуждают о логике, я понимаю одну вещь: генерация никогда не была проблемой; проверка — вот что является барьером.
Вот почему я так заинтересован в @Mira_Network.
Он не собирается создавать следующий ChatGPT и не планирует запускать соревнования по инференсу с кучей GPU. Он просто задает вопрос с другой стороны — как мы можем доверять выводам ИИ?
Ответ Mira не был "У нас есть более сильная модель", а был: "Если вы хотите, чтобы ИИ говорил, то вы должны сделать так, чтобы его можно было проверять, задавать вопросы и подтверждать."
Вы генерируете текст с помощью ИИ в экосистеме Mira, он будет разбит на ряд небольших утверждений, которые будут отправлены нескольким узлам для проверки, процесс записывается в цепочку, результаты достигают консенсуса, а за ошибки нужно платить.
Вы можете написать текст с его помощью, найти определение, создать изображение, а рядом будет указано: на основе чьих данных сделан этот вывод, есть ли консенсус, является ли это достоверным.
Ранее, используя ИИ, ты слушал, как он рассказывает истории. Теперь, используя Mira, ты смотришь, как он выполняет задания.
Поэтому я говорю, что это не AI-приложение, это скорее «суд, говорящий на AI».
Вы, конечно, можете продолжать использовать ИИ для написания статей, рисования, поиска материалов, но когда это начнет определять медицинские рекомендации, условия контрактов, доказательства в судебных разбирательствах, лучше, чтобы у вас было место, где каждое его слово будет иметь подтверждение.
Mira именно такое место. Это не чтобы судить за вас, а чтобы убедиться, что вы видите, а не то, что придумал ИИ.
@KaitoAI
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Иногда ИИ говорит неправильно, не потому что он глуп, а потому что никто не требует от него ответственности.
Я использовал много "AI инструментов", которые пишут быстро и рисуют неплохо, но каждый раз, когда я вижу, как они серьезно создают данные и бессмысленно рассуждают о логике, я понимаю одну вещь: генерация никогда не была проблемой; проверка — вот что является барьером.
Вот почему я так заинтересован в @Mira_Network.
Он не собирается создавать следующий ChatGPT и не планирует запускать соревнования по инференсу с кучей GPU. Он просто задает вопрос с другой стороны — как мы можем доверять выводам ИИ?
Ответ Mira не был "У нас есть более сильная модель", а был: "Если вы хотите, чтобы ИИ говорил, то вы должны сделать так, чтобы его можно было проверять, задавать вопросы и подтверждать."
Вы генерируете текст с помощью ИИ в экосистеме Mira, он будет разбит на ряд небольших утверждений, которые будут отправлены нескольким узлам для проверки, процесс записывается в цепочку, результаты достигают консенсуса, а за ошибки нужно платить.
Вы можете написать текст с его помощью, найти определение, создать изображение, а рядом будет указано: на основе чьих данных сделан этот вывод, есть ли консенсус, является ли это достоверным.
Ранее, используя ИИ, ты слушал, как он рассказывает истории. Теперь, используя Mira, ты смотришь, как он выполняет задания.
Поэтому я говорю, что это не AI-приложение, это скорее «суд, говорящий на AI».
Вы, конечно, можете продолжать использовать ИИ для написания статей, рисования, поиска материалов, но когда это начнет определять медицинские рекомендации, условия контрактов, доказательства в судебных разбирательствах, лучше, чтобы у вас было место, где каждое его слово будет иметь подтверждение.
Mira именно такое место. Это не чтобы судить за вас, а чтобы убедиться, что вы видите, а не то, что придумал ИИ.
@KaitoAI