Истина Мир Все, что вам нужно, чтобы встать и работать с MCP U2013 Anpropic’s USB-C для AI

Все, что вам нужно, чтобы встать и работать с MCP U2013 Anpropic’s USB-C для AI

by Истина

< img src = "https://regmedia.co.uk/2025/04/14/mcp_cover_image.jpg"/> < P > Руки на получение больших языковых моделей, чтобы сделать что -то полезное, обычно означает подключение их к внешним данным, инструментам или API. Проблема в том, что нет стандартного способа сделать это — пока.

< p > Антропический думает, что у него есть ответ: MCP, открытый протокол, который обещает быть USB-C для AI. Итак, мы взяли это, чтобы увидеть, что работает.

< P > Введенный в конце прошлого года проект Claude модели модели модели (MCP) был разработан < P > Это не просто хранилища данных, такие как базы данных. Серверы MCP могут подвергать различные инструменты и ресурсы для моделей искусственного интеллекта, позволяя функциональности, такие как запросы базы данных, инициирование контейнеров Docker или взаимодействие с такими платформами обмена сообщениями, как Slack или Discord.

< P >Если MCP звучит вообще знакомо, это потому, что в последние месяцы он привлек много внимания. Официальный MCP Server Github Repo теперь насчитывает десятки официальных интеграций с основными поставщиками программного обеспечения, включая Grafana, Heroku и Elastisearch, а также более 200 сообществ и демонстрационных серверов.

< P > Если вы хотите подключить LLM к базе данных SQL, управлять своим кластером Kubernetes или автоматизировать JIRA, есть большая вероятность, что для этого уже есть сервер MCP. На самом деле, MCP привлекла столько внимания, что Openai и Google теперь выбрасывают свой вес за проектом.

< P > В этом практическом руководстве мы будем внимательно рассмотреть, как MCP работает на практике, что вы можете сделать с ним, некоторые из проблем, с которыми он сталкивается, и как развернуть и интегрировать серверы MCP как с настольным компьютером Claude, так и с вашими собственными моделями. < h3 class = "crosshead" > Быстрый обзор MCP

< P >Прежде чем мы перейдем к тому, как раскрутить сервер MCP, давайте быстро посмотрим на то, что происходит под капотом.

< P > На высоком уровне MCP использует типичную архитектуру клиента-сервер с тремя ключевыми компонентами: хост, клиент и сервер.

< img src = "https://regmedia.co.uk/2025/04/11/mcp_architectural_diagram.jpg?x=648& AMP;y=449& anderfer_y=1" Alt = "Здесь вы смотрите на высокий уровень. Высокий взгляд на архитектуру MCP. < p class = "text_center" > Вот высокий уровень архитектуры MCP … Кредит: ModelContextProtocol.io. Нажмите, чтобы увеличить любое изображение

< ul > < li > < Стронг > Хост обычно является доступным пользователем фронт-конец, такой как настольный компьютер Claude или IDE, похожий на курсор, и отвечает за управление одним или несколькими клиентами MCP. 

< li > Каждый < Стронг > Клиент поддерживает соединение один на один через протокол MCP с сервером. Все сообщения между клиентом и сервером обмениваются с использованием JSON-RPC, но транспортный уровень будет варьироваться в зависимости от конкретной реализации с событиями STDIO, HTTP и сервера (SSE), которые в настоящее время поддерживаются.

< li > MCP < Strong > Сервер сам предоставляет конкретные возможности для клиента, что делает их стандартизированными способами. Вот почему MCP описывается в документах как USB-C для ai.

< p > Как и USB, в значительной степени устранял необходимость в различных интерфейсах взаимодействовать с периферийными устройствами и устройствами хранения, MCP стремится позволить моделям общаться с данными и инструментами, используя общий язык.

< P >В зависимости от того, является ли ресурс локальным, например, базой данных SQLite, или удаленным, таким как ковш S3, сервер MCP будет либо напрямую, либо будет действовать как мост для ретрансляции API -вызовов. Аналогия USB-C особенно подходит в последнем случае, так как многие серверы MCP фактически служат адаптерами, что переводит интерфейсы специфичных для поставщика в стандартизированный формат, с которым языковые модели могут легче взаимодействовать.

< p > Однако важным битом является то, что эти ресурсы подвергаются воздействию и ответы возвращаются на модель, согласован.

< P >Одна из самых интересных нюансов MCP — это работает в обоих направлениях. Мало того, что данные запроса приложения для хоста с сервера, но и сервер также может общаться с LLM с помощью запроса отбора проб/createmessage для клиента. К сожалению, эта функциональность еще не поддерживается, но она может открыть дверь для некоторых интересных агентских рабочих процессов.

< p > Теперь, когда мы лучше понимаем, что такое MCP и как он работает, давайте погрузимся в то, как их использовать.

< h3 class = "crosshead" > Тестирование MCP с настольным компьютером Claude < img src = "https://regmedia.co.uk/2025/04/14/claude_desktop.jpg?x=648& AMP;y=418& AMP; insfer_y=1" Alt = "Claude Desktop - один из самых простых способов. Попробуйте MCP "height =" 418 "ширина =" 648 "/> < p class = "text_center" > Claude. < p > Учитывая, что антропный рождаемый MCP, один из самых простых способов испачкать руки, это неудивительно, используя Claude Desktop.

< P >< Strong > Что вам нужно:

< ul > < li >Windows 10 или выше ПК, или MacOS 11 или выше Mac (см. Здесь)

< li > Claude Desktop

< li > Python 3 (уже установлено для пользователей MacOS)

< li > uvx

< li > node.js

< p > Если вы не используете внешнего поставщика LLM, такой как антропический, в следующем разделе мы рассмотрим, как подключить серверы MCP к локальным моделям и популярный интерфейс Open Webui.

< P > Чтобы начать, нам понадобится несколько зависимостей в дополнение к настольному столу Claude, так как серверы MCP могут работать в ряде различных сред. Для целей этой демонстрации вам нужно установить Node.js, Python 3 и менеджер пакетов UVX для Python.

< P > С установленными зависимостями, запустите настольный компьютер Claude и войдите в систему, используя свою антропную учетную запись. Затем перейдите к настройкам приложения, а затем к вкладке «Разработчик».

< img src = "https://regmedia.co.uk/2025/04/14/claude_desktop_mcp_config.jpg?x=648& Amp ;y=475& antfer_y=1" alt = "из настройки Claude. и щелкните & quot; edit config & at; title = "Из настройки рабочего стола Claude откройте & at; quot; разработчик & at; quot; tab и chlick & at; quot; edit config " для создания нового файла конфигурации MCP». высота = "475" ширина = "648"/> < p class = "text_center" > из настройки рабочего стола Claud < P >Оказавшись там, нажмите кнопку «Редактировать конфигурацию». Это автоматически генерирует пустой файл claude_desktop_config.json в соответствии с поддержкой ~/библиотека/приложения/Claude/Polder на Mac или %AppData % Claude в папке в Windows. Здесь мы добавим нашу конфигурацию клиента MCP. Чтобы проверить вещи, мы будем использовать системную систему и файловую систему серверов MCP.

< P > Откройте файл CLAUDE_DESKTOP_CONFIG.JSON в вашем предпочтительном текстовом редакторе или IDE-мы используем VSCODIUM-и заменяем его содержимое на конфигурацию временного сервера ниже. Не стесняйтесь приспосабливаться к предпочтительному часовому поясу.

{ «McPervers»: { «время»: { «Команда»: «UVX», «Args»: [«MCP-Server-Time», «-local-Timezone = UTC»] } } } < P > Сохраните файл и перезапустите настольный компьютер Claude. Когда он перезапускается, вы должны заметить новый значок в поле чата, указывающий, что инструмент доступен для использования.

< P >Затем мы можем проверить его, задав простой вопрос: «Сколько времени в Нью -Йорке ?». < img src = "https://regmedia.co.uk/2025/04/14/claude_desktop_time.jpg?x=648& AMP;y=371& ancefer_y=1" Alt = "Claude самостоятельно. title = «Claude само по себе знает, сколько времени сейчас в любом данном моменте, но, учитывая доступ к серверу времени MCP, теперь он может определить время». высота = "371" ширина = "648"/> < p class = "text_center" > Claud < P > Теперь мы попробуем файл MCP -сервер файловой системы, обновив файл claude_desktop_config.json со следующим:

{ «McPervers»: { «время»: { «Команда»: «UVX», «Args»: [«MCP-Server-Time», «-local-Timezone = UTC»] }, «файловая система»: { «Команда»: «npx», «Args»: [ «-y», «@ModelContextProtocol/Server-FilesyStem», «/Users/username/desktop», «/PATH/TO/ORE/ALTER/DIR» ] } } } < P > Убедитесь, что вы обновляете/пользователи/пользовательский имени/настольный компьютер и//path/to/ore/Alth/dir с каталогами в вашей файловой системе, к которой вы хотели бы дать модели доступ перед сохранением.

< P > Перезагрузите Claude Desktop, и вы должны заметить, что теперь у вас есть доступ к большему количеству инструментов, чем раньше. В частности, сервер MCP File System позволяет модели выполнять различные функции файловой системы, включая:

< ul > < li > Файлы чтения и написания

< li > Файлы редактирования

< li > Создание или перечисление каталогов

< li > Перемещение или поиск файлов

< li > Получение информации о файле, например, размер или дата создания

< li >Перечисление, какие каталоги имеют доступ к

< P > В этом случае мы предоставили Клоду доступ к нашему рабочему столу. Поэтому мы спрашиваем такие вещи, как:

< ul > < li >< Strong > Приглашение: «Что на моем рабочем столе»

< li >< Стронг > Приглашение: «Можете ли вы поднять мой рабочий стол ?»

< li >< Strong > Приглашение: «rename file.txt to doc.md»

< p > Некоторые наблюдения из Стержного технического документа:

< ul > < li > Мы соблюдали некоторую шелухость с сервером MCP файловой системы с более длинными задачами, поэтому ваш пробег может варьироваться.

< li > Если вы предпочитаете использовать PIP или Docker, вы можете найти альтернативные конфигурации для серверов времени MCP и серверов файлов здесь.

< h3 class = "crosshead" > Используя MCP с вашими собственными моделями и Open Webui < img src = "https://regmedia.co.uk/2025/04/14/open_webui_mcp.jpg?x=648&y=416& ancfer_y=1" alt = "как версия V0.0.0. v0.6.0 Open Webui поддерживает серверы MCP через мост OpenAPI "Height =" 416 "ширина =" 648 "/> < p class = "text_center" > как версия v0.6.0 Open Webui поддерживает серверы MCP через мост Openapi — нажмите, чтобы увеличить

< p > Если вы предпочитаете опробовать MCP с нашими собственными самостоятельными моделями, Open Webui недавно объединила поддержку протокола через OpenAPI-совместимый прокси.

< p > Если вы не знакомы с Open Webui, это популярный веб-интерфейс с открытым исходным кодом, аналогичный Catgpt, который интегрируется с серверами ловушек, такими как Ollama, llama.cpp, VLLM или действительно любая конечная точка API OpenAI.

< H3 Class = "Crosshead" > Предварительные условия < ul > < li >Это руководство предполагает, что вы знакомы с запущенными моделями на местном уровне. Если вам нужна помощь, у нас есть руководство по развертыванию местных LLMS практически на любом оборудовании за считанные минуты прямо здесь.

< li > Вам также необходимо развернуть и настроить Open Webui в Docker. У нас есть подробное руководство по настройке этого здесь.

< li > Говоря о Docker, мы будем использовать время выполнения контейнера, чтобы также раскрыть наши серверы MCP.

< p > Как только вы открыли Webui и работают с местными моделями, расширение поддержки инструментов MCP довольно легко с помощью Docker.

< P > Как мы уже упоминали ранее, Open Webui поддерживает MCP через прокси -сервер OpenAPI, который выявляет их как стандартный RESTFUL API. По словам разработчиков, это имеет несколько преимуществ, включая лучшую безопасность, более широкую совместимость и обработку ошибок, сохраняя при этом простые вещи.

< P >Настройка серверов MCP, возможно, в результате проще; но это требует преобразования конфигураций JSON, используемых Claude Desktop в стандартную исполняемую строку.

< P > < P > < Strong > config.json:

{ «McPervers»: { «Храбрый поиск»: { «Команда»: «npx», «Args»: [ «-y», «@ModelContextProtocol/Server Brave-Search» ], «env»: { «Brave_api_key»: «your_api_key_here» } } } } < P > < Стронг > Команда запуска Docker:

Docker Run -p 8001: 8000-MCP-Brave-Search -e-earch -e -e -e-e brave_api_key = your_api_key_here ghcr.io/open-webui/mcpo:main-api-key «top-secret»-npx -y @modelcontextprotocol/server-brave-search » < P > Если у вас еще нет смелого поиска клавиша API, вы можете получить его бесплатно здесь и использовать его для замены your_api_key_here. Кроме того, измените ключ API верхнего секрета на что-то уникальное, частное и безопасное; это понадобится позже.

< P > Совет: Если вы хотите запустить этот сервер в фоновом режиме, добавьте -d после запуска. Затем вы можете проверить журналы сервера, запустив журналы Docker MCP Brave-Search.

< p > Если вы хотите развернуть несколько серверов MCP в Docker, вы можете снова запустить эту команду:

< ul > < li > Изменение 8001 на другой открытый порт

< li > Обновление значения -имен

< li > и соответственно настройка команды сервера

< h3 class = "crosshead" > Подключение сервера с открытием webui

< P >После того, как ваш сервер MCP будет запущен, мы можем подключиться к нему либо на уровне пользователя, либо на системном уровне. Последнее требует дополнительной конфигурации списка доступа (ACL), чтобы сделать модель доступной для пользователей и моделей. Чтобы все было просто, мы рассмотрим, как подключиться к серверам MCP на индивидуальном уровне пользователя.

< P > с панели Open Webui, перейдите к настройкам пользователей и откройте вкладку «Инструменты». Оттуда создайте новое соединение и введите URL-обычно что-то вроде http: //your_ip_address_here: 8001-и клавиша API верхнего секрета, которую вы устанавливаете ранее.

< img src = "https://regmedia.co.uk/2025/04/14/open_webui_mcp_connection.jpg?x=648& AMP ;y=429& antfer_y=1" alt = "Под настройкой пользователя, добавьте свой MCP Server; title = «В соответствии с настройкой пользователя добавьте свой сервер MCP в соответствии с & at; инструменты & at; quot; вкладка». высота = "429" ширина = "648"/> < p class = "text_center" >В соответствии с настройкой пользователя добавьте свой сервер MCP на вкладке «Инструменты»

< p > Если все работает правильно, вы должны получить пару зеленых сообщений в правом верхнем углу, и вы должны увидеть новый значок, указывающий, сколько инструментов доступно для модели рядом с коробкой чата.

< P > Теперь спросите свою установленную локальную и выбравшую модель чего -то, чего не узнает; он может автоматически запустить поисковый запрос и вернуть результаты.

< img src = "https://regmedia.co.uk/2025/04/14/open_webui_mcp_search.jpg?x=648& Amp ;y=419& antfer_y=1" alt = " Суперкомпьютерная конференция начинается. " title = «После включения модель выполнит смелый поиск, если вы зададите ему вопрос, который не знал бы, например, когда начнется международная суперкомпьютерная конференция». высота = "419" ширина = "648"/> < p class = "text_center" > После включения, модель выполнит смелый поиск, если вы зададите ему вопрос, который не знал бы, например, когда Международная конференция суперкомпьюта начнется в этом году

< P > Обратите внимание, что этот конкретный сервер MCP включает только API поиска и на самом деле не соскребает страницы. Для этого вы хотели бы посмотреть на что-то вроде MCP-сервера кукловода или воспользоваться встроенными функциями и ползания Open Webui, которые мы ранее исследовали в нашем RAG Ruder.

< h3 class = "crosshead" > Слово о нативной функции вызывает в Open webui

< P >По умолчанию открытая WebUI обрабатывает инструмент, вызовет внутреннюю вызов, определяя подходящий инструмент для вызова каждый раз, когда отправляется новое сообщение. Недостатком является то, что инструменты можно назвать только один раз на обмен.

< p > Преимущество этого подхода заключается в том, что он работает практически с любой моделью и, как правило, согласован в своем исполнении. Тем не менее, он может ввести проблемы, если, например, модели необходимо получить доступ к инструменту несколько раз для удовлетворения запроса пользователя. Например, если модель получала доступ к базе данных SQL, ей может потребоваться получить схему, чтобы выяснить, как отформатировать фактический запрос.

< p > Чтобы обойти это, вы можете воспользоваться нативной функциональностью модели, которая может получить доступ к инструментам в вызове стиля Action-Action (React).

< P >Хитрое заключается в том, что, хотя множество моделей рекламируют нативную поддержку инструментов, многие более мелкие не так надежны. С учетом сказанного, нам очень повезло с семейством моделей QWEN 2.5, работающих в Олламе.

< P > Включение нативной функции вызовы в Open Webui относительно прост и может быть включено из меню «элементы управления» в верхнем правом углу Open Webui. Обратите внимание, что при включении нативного вызова функции, многие серверы логических данных, такие как Ollama, отключите потоковую передачу токенов, поэтому не удивляйтесь, если сообщения начнут появляться сразу, а не потокогаться так, как обычно.

< img src = "https://regmedia.co.uk/2025/04/14/open_webui_mcp_function_calling.jpg?x=648& hay=368& antfer_y=1" alt = "Вы можете включить нативную функцию. В правом правом) «title =« Вы можете включить нативную функцию вызовы в открытом веб -сайте из меню «Управление чатами» (меню «Маленький гамбургер» в правом верхнем углу) "высота =" 368 "ширина =" 648 "/>< p class = "text_center" > Вы можете включить нативную функцию вызовы в Open Webui из меню CHAT Controls (Little Hamburger Menu в правом верхнем углу)

< P > Теперь, когда вы запускаете инструмент, вы заметите другой наконечник инструмента, указывающий, какой инструмент использовался с выпаданием, чтобы увидеть, какая информация, если таковая имеется, была возвращена.

< H3 Class = "Crosshead" > Комплекты разработки программного обеспечения MCP (SDK) < P > Ищу другой комплект разработчиков MCP -сервера ? Проверьте ссылки ниже:

< ul > < li > TypeScript MCP SDK

< li > mcp java sdk

< li > MCP Kotlin SDK

< li > MCP C# SDK

< p > В дополнение к тому, чтобы сделать его относительно легко интегрировать существующие серверы MCP, разработчики также прошли все большие, чтобы облегчить их строительство.

< P >Они предоставляют SDK для нескольких языков, включая Python, TypeScript, Java, Kotlin и C#, чтобы упростить адаптацию существующего кода для использования на сервере MCP.

< P > Чтобы проверить это, мы высмеивали этот простой сервер MCP калькулятора примерно через пять минут, используя пример Python.

< P > < Strong > Calculator_server.py

от mcp.server.fastmcp import fastmcp MCP = FASTMCP («MathSupport») @mcp.tool () def Calculator (уравнение: str) -& gt; Str: «» » Рассчитайте ответ на уравнение. «» » пытаться: Результат = Eval (уравнение) return f «{avation} = {result}» кроме исключения как e: Печать (e) вернуть «неверное уравнение» < p > Оттуда подключение к открытию WebUI так же просто, как раскрыть еще один прокси -сервер MCP в Docker.

Docker Run -p 8002: 8000-Назметь MCP-calculator -v ~/calculator/calculator.py: /calculator.py ghcr.io/open-webui/mcpo:main-api-key «top-secret»-uv-run-with mcp [cli] mcp run /calculator_server.py. < p > или если вы предпочитаете рабочие столы Claude:

{ «McPervers»: { «Mathsupport»: { «Команда»: «UV», «Args»: [ «бегать», «—с», «MCP [CLI]», «MCP», «бегать», «/Path_to_python_script_here/calculator_server.py» ] } } } < p > Очевидно, это даже не царапает поверхность всех функций и возможностей, поддерживаемых MCP, но, по крайней мере, дает вам некоторое представление о том, как код может быть адаптирован для использования с протоколом.

< H3 Class = "Crosshead" > MCP далеко не совершенен < P > С тысячами доступных серверов, а теперь и Openai и Google поддерживают протокол с открытым исходным кодом, MCP находится на пути к тому, чтобы стать фактическим стандартом для интеграций AI.

< P >Но в то время как протокол удалось привлечь значительное внимание в течение нескольких месяцев с момента его дебюта, не все довольны своей текущей реализацией, особенно в отношении безопасности, сложности и масштабируемости.

< P > Безопасность остается одной из самых больших критических замечаний MCP. Легкость развертывания этих серверов в сочетании со способностью выполнять многие из этих серверов выполнять произвольный код, потенциально проблематична, если не введены надлежащие проверки, гарантии и песочницы.

< P > Мы уже видели хотя бы один экземпляр, в котором MCP -сервер может быть использован для утечки истории сообщений в WhatsApp.

< P >< Стронг > наслаждаясь нашим покрытием AI ? Вам может понравиться:

< ul > < li > Как запустить LLM на вашем ПК, а не в облаке, менее чем за 10 минут

< li >От тряпки до богатства: практическое руководство по созданию местного чат -бота AI

< li > Дружелюбное руководство по контейнеризации для работы с искусственным интеллектом

< li > Быстрое руководство по обводе с инструментами в моделях крупных языков

< li > Все, что вам нужно знать, чтобы начать тонкую настройку LLM в конфиденциальности вашего дома

< li > Мед, я сжал LLM! Руководство для начинающих по квантованию — и тестирование его

< li > Чит -коды для производительности LLM: введение в спекулятивное декодирование

< li > Meta дает Llama 3 Vision, теперь, если только у него был мозг

< li > Дружелюбное руководство по местному изображению AI с стабильной диффузией и автоматической 1111

< li > DeepSeek излучает бесплатного претендента Openai’s O1 — вот как использовать его на своем компьютере

< P >Помимо очевидных проблем безопасности, существует также проблема, что, хотя MCP может значительно упростить интеграцию услуг и данных, он все еще зависит от LLM, чтобы воспользоваться ими. И в то время как большинство современных генеративных моделей требуют некоторой функциональности, выявляющих инструменты, быстрый взгляд на таблицу лидеров, получающих функции, показывает, что некоторые лучше, чем другие.

< P > Вот почему открытые по умолчанию WebUI по умолчанию в его интегрированных, хотя и рудиментарных, способных к функциональных возможностям, поскольку он еще более надежна, чем встроенные возможности для вызова инструментов многих моделей.

< P >, а затем, конечно, с точки зрения управления, сражение потенциально десятки серверов MCP добавляет оперативную сложность к развертываниям, даже если они требуют меньшей работы, чем более зрелые интеграции AI для построения или развертывания.

< p > С учетом сказанного проекта, объявленного менее шести месяцев назад, можно ожидать, что многие из этих проблем будут рассмотрены по мере его созревания. Или мы надеемся. Кто сказал, что мы не оптимисты ?

< H3 Class = "Crosshead" > Дополнительные ресурсы < P > Если вы заинтересованы в том, чтобы играть с большим количеством серверов MCP, мы рекомендуем проверить официальную страницу проекта на GitHub, а также каталог MCP с открытым исходным кодом Фрэнка Фигеля, который включает в себя более 3500 серверов.

< P > Между тем, если вам интересно создать свои собственные серверы или клиенты MCP, мы рекомендуем проверить официальные документы MCP для получения дополнительной информации и примеров кода.

< P >< em > Регистр стремится донести больше на локальное содержание ИИ в ближайшем будущем, поэтому обязательно поделитесь своими жгучими вопросами в разделе комментариев и сообщите нам, что вы хотели бы увидеть дальше. ®

Сайт о православной жизни, богослужениях, обществе, новых технологиях, а также статьи, направленные на укрепление нравственных ценностей. Пользователи могут найти ответы на часто задаваемые вопросы о православной культуре, ознакомиться с церковными новостями, а также участвовать в онлайн-дискуссиях. Цель проекта — стать источником духовного вдохновения.

Что такое истина?

Истина — это отражение реальности в ее подлинном виде, без искажений и заблуждений. Она является фундаментальной ценностью в философии, науке, религии и повседневной жизни, помогая людям осознавать и понимать окружающий мир. 

Выбор редактора

Новости