В современную цифровую эпоху спрос предприятий на интеллектуальные услуги растет с каждым днем, а сценарии применения, такие как обслуживание клиентов с помощью искусственного интеллекта и вопросы и ответы для продавцов, становятся все более распространенными. Многие друзья сообщили мне, что им необходимо построить аналогичную систему вопросов и ответов внутри компании, надеясь найти решения с открытым исходным кодом и понять, как их интегрировать в существующий код. В этом видео я покажу вам, как использовать платформу с открытым исходным кодом FastGPT для реализации внутренней системы вопросов и ответов на уровне предприятия. На самом деле процесс не сложный, давайте разберемся.
FastGPT — это система вопросов и ответов базы знаний, основанная на модели большого языка LLM и имеющая множество практических функций. Он не только предоставляет готовые функции обработки данных и вызова моделей, но также обеспечивает оркестрацию рабочих процессов посредством визуализации процессов для реализации сложных сценариев вопросов и ответов. На схеме архитектуры левая сторона отвечает за основные данные и хранилище векторных данных. Модельный шлюз построен через API посередине. Нижняя часть может соединять различные большие модели, и можно использовать даже локально развернутые большие модели с открытым исходным кодом. Выбор очень богат.
Из-за высокого спроса на ресурсы графического процессора для операций с большими моделями, если используется чистый процессор, ответ на вопросы и ответы может занять больше минуты. Поэтому на этот раз я выбрал сервер с графическим процессором и использовал облачную платформу интеллектуальных вычислений GPUEZ. На этой платформе мы сдаем в аренду инстанс с 48G видеопамяти по запросу. Поскольку это демо-проект, я решил платить по мере использования, арендовать его на час и указать базовое изображение. Платформа очень удобна в использовании для научных исследований и исследований, связанных с машинным обучением и искусственным интеллектом. После запуска экземпляра поддерживаются как SSH-соединение, так и режим Jupiter Lab. После входа выберите терминал, аналогичный консоли входа в систему SSH. Вы можете вводить команды LINUX и получать отзывы.
Чтобы установить FastGPT, мы используем метод Docker Compose, который подходит для систем LINUX, Mac OSX и Windows. Операция проста и ее можно назвать «безмозглой установкой». Единственная необходимая конфигурация — это доступ модели к одной платформе API. Если взять в качестве примера доступ к крупной внутренней модели общественного благосостояния, нетрудно следовать документам, предоставленным FastGPT.
Используемая в этот раз облачная платформа интеллектуальных вычислений GPUEZ показала отличные результаты. Он поддерживает оплату по мере использования, гибкий и удобный; большая видеопамять с одной картой, такая как 32 ГБ и 48 ГБ, редко встречается на других платформах, она обеспечивает предустановленную среду, а самодельные изображения можно сохранять и использовать повторно; он имеет богатый набор данных машинного обучения и обучения моделей. Это очень помогает научным исследованиям и исследованиям. Платформа сотрудничает с преподавателями и студентами многих университетов страны и исследователями научно-исследовательских учреждений, поэтому она безопасна, стабильна и гарантирована. Зарегистрируйтесь сейчас, чтобы получить пробную награду в размере 5 юаней и скидку на потребление 20%. Ссылка размещена в разделе комментариев. Друзья, которым нужна аренда вычислительной мощности, возможно, захотят попробовать.
Благодаря описанным выше шагам мы научились использовать FastGPT для создания внутренней системы вопросов и ответов базы знаний для предприятия. Весь процесс прост и понятен. Я надеюсь, что каждый сможет попытаться создать свою собственную систему вопросов и ответов на основе искусственного интеллекта корпоративного уровня. Если у вас есть какие-либо вопросы или идеи, оставьте сообщение в области комментариев, чтобы поделиться им. Увидимся в следующем видео!
Опубликовать в Twitter Опубликовать в Facebook
Комментарии
Пока комментариев нет