Вайбкодинг для луашеров: используем LLM, RAG и MCP для кода.

WTFGACHI

Новичок
Автор темы
5
9
iislop.jpeg

Vibecoding на Lua: От говнокода к осознанной разработке

Ну всем здарова, любители ничего не изучать и сразу писать код! С вами WTFGACHI, и сегодня мы будем погружаться в мир вайбкодинга.

Все мы привыкли, что вайбкодинг - это что-то позорное и «неэффективное». Относительно, оно так и есть, потому что большинство «вайбкодеров» совершенно не погружаются в тему. Они сразу бегут писать свои шедевральные промпты по типу:

Типичный вайбкодер написал(а):
«Сделай мне крутейший чит на LUA Samp»

А после удивляются, что получают говнокод, который вообще не работает, а половина функций тупо не существует. Отчасти они правы: сырая LLM модель (по типу той же Gemini) обучена на огромном датасете, но запомнить ваши конкретные опкоды, названия функций и тем более структуру проекта она не способна.




В чем проблема LLM? И как это связано с галлюцинациями в нашей любимой луашке?

Выше я описал самое банальное: LLM тупо не помнит все опкоды и ваши функции. Но если копнуть глубже в архитектуру, становится понятно, почему это происходит:

  • MoE (Mixture of Experts) - Смесь экспертов. Большинство современных моделей работают так: есть эксперт по Python, эксперт по математике и так далее. Для какой-нибудь задачки по математике или популярной библиотеки типа Flask этого достаточно, потому что при обучении ей постоянно попадались примеры. Но MoonLoader и SAMP API - это слишком узкая ниша для "общего" эксперта.
  • MoT (Mixture of Thought) - Структура, направленная на рассуждение. Она разветвляет нейросеть на несколько параллельных потоков мышления. Это очень похоже на работу человеческого мозга, но такие системы невероятно прожорливы до мощностей.

На данный момент (2026 год) такие тяжелые структуры как Gemini 3 Pro DeepThink и Grok 4 Heavy показывают крутые результаты, но даже они могут «поплыть», если не дать им правильный контекст.




Как разработчики решили проблему? Встречайте - MCP

Чтобы нейросеть перестала галлюцинировать и начала реально «понимать», что происходит в софте, придумали Model Context Protocol (MCP) - открытый протокол прикладного уровня для взаимодействия языковых моделей (LLM) с внешними источниками данных и инструментами.

Сухо и совершенно не понятно, но сейчас я попробую обьяснить на простом языке:

Объясняю на пальцах:
Представьте, что нейросеть помимо того, что может писать код, может выдавать осмысленный json ответ или что-то типо такого, за счет этого json отдавать команды далее, к примеру создание обьекта, получение текста, удаление пользователя и так далее.

Пример: Blender и "Вайб-3D"
Самый крутой пример использования это Blender, да наша любимая программа для создание красивейших анимации и 3d артов(порнухи), энтузиасты сделали MCP сервер, который напрямую взаимодействует с программой.

Как это работает внутри?
Довольно просто, модели предоставляют обычно json схемы и рассказывают про каждый инструмент отдельно и она за счет этих инструментов уже взаимодействует с вашей программой к примеру:

JSON:
tool #1:
create_object = создать обьект

И когда вы пишете: "Сделай мне красную коробку", нейронка не гадает, а просто по очереди дергает нужные инструменты. Это очень большой шаг вперед для нейросетей, которые открыли Claude.




RAG для Lua: Как "скормить" нейронке всю Wiki Бластхака

Понятно-понятно, а что для наших луашеров?
И тут я спешу вас обрадовать, нас также не обделили и создали Context7 мощнейший инструмент для RAG, по сути это библиотека с огромным количеством документации вики, и даже обычных примеров кода.


И что нам дает этот инструмент?
На самом деле это развязывает нам руки, нейросеть не будет гадать, что ты от нее хочешь, она знает все опкоды функции и даже примеры кода.

Как же работает вообще context7 изнутри?
На самом деле я сам задавался этим вопросом довольно долго, я рыл инфу, но ничего не нашел поэтому начал свое исследование сам:
  1. Они делают webcrawl всех страниц docs или wiki.
  2. После этого они отдают вот эти сухие данные модели по типу Gemini для создание экземплов кода, обьяснение всех функций и опкодов.
  3. Далее нейросеть делает бенчмарк для нейросети и проверяют насколько эти данные качественные.
  4. А после эти данные уже попадают на MCP сервер.

Это решает все, буквально все, ведь нейросети больше не нужно выдумывать она может подключить библиотеку в данном случае blasthack wiki, после сделать запрос для mcp и поискать подходящую информацию к примеру как вывести сообщение, и она получит нужную функцию и даже примеры кода, что очень круто!




RAG: Что это на самом деле?

Я упомянул это в названии, но так и не рассказал, RAG - по сути просто документации разделенные на сниппеты и кэшированные данные, что позволяет нейросетям не забивать все контекстное окно вашими шедевральными документациями как посрать.




Рейтинг моделей 2026: На чем кодить луашнику?

Окей мы поняли, давайте перейдем уже к моделям. Личный мой фаворит именно для кодинга с MCP модулями является:

  • Claude (Opus 4.5, Sonnet 4.5) - они дорогие не отрицаю, но они самые лучшие для кодинга.
  • Gemini (Gemini 3 Flash, Gemini 3 Pro) - на втором месте. Огромное ПРОСТО КАПЕЦ какое огромное контекстное окно, что позволяет вам работать с ней очень долго, прям капец как долго, неплохо использует тулзы, бесплатные лимиты от разработчиков и сами по себе модели неплохие.
  • ChatGPT (GPT 5.2 / Codex) - если вы не слышали про эту модель скорее всего вы живете в пещере, но сами модели по апи у них ужасные, а в последние время урезанные по типу того же провального GPT 5 (GPT 5.2). Codex модели неплохи, но неоправданно дорогие - за эти же деньги можно спокойно оплачивать токены для Sonnet 4.5 и получать тот же уровень.

Справочник для малышей в этой сфере:
Контекстное окно - по сути это сколько данных сможет удержать модель за сессию.
Токены - это базовые единицы текста, с которыми работает нейросеть. Если человек воспринимает текст как последовательность букв или слов, то нейросеть «видит» его как последовательность токенов. Это «атомы» языка для ИИ.

Где потестить и взять API?

МодельГде потеститьAPI
GeminiAI StudioAPI Keys
ClaudeClaude SonnetPlatform API
ChatGPTChatGPTOpenAI API

И нет я не рекомендую пользоваться агрегаторами по типу OpenRouter, это самое тупое че вы можете сделать, вы буквально соглашаетесь отдавать данные из своих приватных файлов им, что прямо у них указано.




От слов к делу: Выбираем Agentic Space

Первое, что я порекомендую вам это бросить обычный чат - вот реально он вам не пригодиться. Нам нужные агентные пространства, там где наша модель приобретает специальные возможности для создание файлов, прочтение этих файлов, подключение тех самых MCP. Плюс там чаще всего есть бесплатные токены.

Мой личный топ по агентным платформам:

  • AntiGravity - вышла недавно, от гуглов очень хорошая агент платформа там есть хорошие лимиты для бесплатных пользователей на свои модели и даже на Claude ссылка: antigravity.google
  • Cursor - самая популярная для агент кодинга, с щедрыми бесплатными лимитами на легенькие модельки, также там есть щедрый триал: cursor.com
  • WindSurf - слабая платформа, агенты там настроены ужасно, иногда они даже не пишут код, но там есть щедрые лимиты для халявщиков: windsurf.com




Настройка на примере AntiGravity

IDE чаще всего это просто клон Visual Studio Code. Переходим в настройки, а после выбираем MCP сервера:
mcp.png

Далее нажимаем добавить MCP. Вам нужно подключить базовый context7. Именно для AntiGravity он подключается так (вставляете в поле настроек):

JSON:
{
  "mcpServers": {
    "context7": {
      "command": "npx",
      "args": ["-y", "@upstash/context7-mcp", "--api-key", "YOUR_API_KEY"]
    }
  }
}

Апи ключ можно получить бесплатно на Context7 Dashboard.
sex.png

Вставляете в YOUR_API_KEY и модель получает доступ к серверу (200 запросов в день бесплатно).
Как подключить на других платформах можете узнать тут:Context 7 MCP connect гайды




Искусство "Обратного Промптинга"

И тут мы подходим к самому интересному и сложному. Знакомьтесь - обратный промптинг. Чтобы заставить написать модель что-то осмысленное, ты должен стать моделью. Представь, что ты нихуя не знаешь, тебе нужно подробно все обьяснить.

Задай себе пару вопросов: что ты хочешь? Насколько это возможно с нынешними данными? И начни составлять промпт.

Самая главная ошибка - это сейчас указывать роль типа "Senior Developer". Ребят, это было 2 года назад, это просто расточительство токенов. Нужно просто описать задачу. Скажи ей, чего тебе от нее надо, как она может это сделать, и ОБЯЗАТЕЛЬНО укажи библиотеки и версии.

Пример нормального промпта:
Код:
Твоя задача создать Lua скрипт для SAMP, данный LUA скрипт должен выводить определенное сообщение в чат, если у игрока в руках находиться оружие с 24 id (desert eagle). Используй Context7 библиотеку Blast Hack Wiki, не пиши код сразу.

Почему так? Лишняя громоздкость мешает моделям. Мы пишем "используй context7", потому что модели часто шлют нахуй наш MCP, думая что они самые умные. Мы суем им книги прямо в ебало.




Фишки, ошибки и итоги

Модели будут ошибаться и это нормально, вы тоже не пишите свой код с первой попытки. Если вы просто скинете лог ошибки, модель может поймет сама, но лучше сделать структурированный промпт где вы укажите свои возможные подозрения, это поможет модели в размышлении.

Мои фишки для вайбкодинга:
  1. Обратный промптинг.
  2. Создание ROADMAP для нейросети через нейросеть. Если поделить задачу на этапы, ИИ справиться лучше.
  3. Использование других MCP серверов. В сети их куча: от работы с гитхабом до реально крышесносных по типу Sequential Thinking, что заставляет модель работать в два раза лучше.

Самая частая ошибка новичков - это завышение ИИ до уровня богов. ИИ это лишь инструмент. Да, сложный, да бесячий, но инструмент. Со временем вы поймете паттерны ИИ и сможете писать качественный код даже для продакшена.

Итог: Развитие ИИ стало очень быстрым. Если два года назад они писали бред, то сейчас даже базовые сухие модели могут написать легенький скрипт. Моя документация - это база, от которой нужно опираться. Вайбкодинг - это будущее. Даже те же самые Claude используют его в разработке своего софта, а компании ценят этот навык.

Cпасибо за прочтение этой довольно громоздкой статьи, можете задавать вопросы я постараюсь ответить.
analslop.jpeg
 
Последнее редактирование:

Sunzer

Активный
281
90
Надеюсь не будет ситуации аля как в круговороте дерьма в русском ХВХ комьюнити Майнкрафта, где в наше время та самая шкила выпускает всякие дерьмовые пасты (клиенты, где куча спизженной хуйни с YouGame, noad), так ещё пытаются на базе пасты, которая была сделана на основе бедной (потому что её изуродовал только тот кому лень) Expensive 2.0/3.1 при помощи ИИ дОдЕлАтЬ чит клиент по запросу: сделай ту или иную функцию а также сделай килку на определённый сервер пжпжпжпжпж, думая, что ИИ реально сделает что-то нормальное и без багов
1767374590639.png
 
  • Ха-ха
Реакции: WTFGACHI

SR_team

like pancake
BH Team
4,919
6,617
они дорогие не отрицаю, но они самые лучшие для кодинга.
гугл за $6/мес (на первые 3 месяца) раздает сейчас с Google One AI Pro подпиской. Говорят лимит выше, чем у CC подписки за $20 + нет недельных лимитов - только 5 часовое окно.

WindSurf - слабая платформа, агенты там настроены ужасно, иногда они даже не пишут код, но там есть щедрые лимиты для халявщиков: windsurf.com
Antigravity - форк старой версии Windsurf - весной он точно был лучше курсора
 
  • Нравится
Реакции: WTFGACHI

WTFGACHI

Новичок
Автор темы
5
9
гугл за $6/мес (на первые 3 месяца) раздает сейчас с Google One AI Pro подпиской. Говорят лимит выше, чем у CC подписки за $20 + нет недельных лимитов - только 5 часовое окно.


Antigravity - форк старой версии Windsurf - весной он точно был лучше курсора
Cейчас кстати можно взять подписку на 12 месяцев за 300 рублей на FunPay, и да там правда увеличенные лимиты, на сайте прочитал
Пруф
Windsurf был хорош на свое время, но сейчас ужасен, не знаю кому как, может для моих задач он не подходит, но чаще всего сталкивался с багами именно в ней.

Написал бы хоть шо реф ссылку на антигравити дал
Посмотреть вложение 284256
Блин как ты узнал, что я скрытый агент от DeepMind

Надеюсь не будет ситуации аля как в круговороте дерьма в русском ХВХ комьюнити Майнкрафта, где в наше время та самая шкила выпускает всякие дерьмовые пасты (клиенты, где куча спизженной хуйни с YouGame, noad), так ещё пытаются на базе пасты, которая была сделана на основе бедной (потому что её изуродовал только тот кому лень) Expensive 2.0/3.1 при помощи ИИ дОдЕлАтЬ чит клиент по запросу: сделай ту или иную функцию а также сделай килку на определённый сервер пжпжпжпжпж, думая, что ИИ реально сделает что-то нормальное и без багов
Видел этот шедевральные видео, все пошло от centbrowser, ну наврятли у нас такое будет, тут не каждый то либу установить может, а про кодинг отдельных скриптов под отдельные сервера, с помощью нейронки это будет сложно, покрайне мере покамись они не додумались до этого.. ключевое слово пока..

BlastLibs новая база знаний для Lua-разработчиков
Screenshot_2.png

Теперь в Context7 доступны BlastLibs. Это качественный датасет всех популярных библиотек, собранный специально для работы с языковыми моделями.

Основные возможности:
  • Генерация качественного кода (формат данных llms.txt);
  • Быстрое создание интерфейсов (mimgui/imgui);
  • Поддержка специфических библиотек (Arizona API, RakLua и др.).

RakLua, SAMemory, SNET, arizona events, arizona-api, imgui, mimgui, mimguiblur, moonadditions, moonbot, moonimguiaddons, moonmonet, samp.lua, tabler-icons.

Как пользоваться: В интерфейсе Context7 уточните, какую библиотеку нужно подключить к контексту модели.

Ссылки:
⚡ BlastLibs
📖 BlastHack Wiki
 
Последнее редактирование: