- 5
- 9
Vibecoding на Lua: От говнокода к осознанной разработке
Ну всем здарова, любители ничего не изучать и сразу писать код! С вами WTFGACHI, и сегодня мы будем погружаться в мир вайбкодинга.
Все мы привыкли, что вайбкодинг - это что-то позорное и «неэффективное». Относительно, оно так и есть, потому что большинство «вайбкодеров» совершенно не погружаются в тему. Они сразу бегут писать свои шедевральные промпты по типу:
Типичный вайбкодер написал(а):«Сделай мне крутейший чит на LUA Samp»
А после удивляются, что получают говнокод, который вообще не работает, а половина функций тупо не существует. Отчасти они правы: сырая LLM модель (по типу той же Gemini) обучена на огромном датасете, но запомнить ваши конкретные опкоды, названия функций и тем более структуру проекта она не способна.
В чем проблема LLM? И как это связано с галлюцинациями в нашей любимой луашке?
Выше я описал самое банальное: LLM тупо не помнит все опкоды и ваши функции. Но если копнуть глубже в архитектуру, становится понятно, почему это происходит:
- MoE (Mixture of Experts) - Смесь экспертов. Большинство современных моделей работают так: есть эксперт по Python, эксперт по математике и так далее. Для какой-нибудь задачки по математике или популярной библиотеки типа
Flaskэтого достаточно, потому что при обучении ей постоянно попадались примеры. Но MoonLoader и SAMP API - это слишком узкая ниша для "общего" эксперта. - MoT (Mixture of Thought) - Структура, направленная на рассуждение. Она разветвляет нейросеть на несколько параллельных потоков мышления. Это очень похоже на работу человеческого мозга, но такие системы невероятно прожорливы до мощностей.
На данный момент (2026 год) такие тяжелые структуры как Gemini 3 Pro DeepThink и Grok 4 Heavy показывают крутые результаты, но даже они могут «поплыть», если не дать им правильный контекст.
Как разработчики решили проблему? Встречайте - MCP
Чтобы нейросеть перестала галлюцинировать и начала реально «понимать», что происходит в софте, придумали Model Context Protocol (MCP) - открытый протокол прикладного уровня для взаимодействия языковых моделей (LLM) с внешними источниками данных и инструментами.
Сухо и совершенно не понятно, но сейчас я попробую обьяснить на простом языке:
Объясняю на пальцах:
Представьте, что нейросеть помимо того, что может писать код, может выдавать осмысленный json ответ или что-то типо такого, за счет этого json отдавать команды далее, к примеру создание обьекта, получение текста, удаление пользователя и так далее.
Пример: Blender и "Вайб-3D"
Самый крутой пример использования это Blender, да наша любимая программа для создание красивейших анимации и 3d артов(порнухи), энтузиасты сделали MCP сервер, который напрямую взаимодействует с программой.
Как это работает внутри?
Довольно просто, модели предоставляют обычно json схемы и рассказывают про каждый инструмент отдельно и она за счет этих инструментов уже взаимодействует с вашей программой к примеру:
JSON:
tool #1:
create_object = создать обьект
И когда вы пишете: "Сделай мне красную коробку", нейронка не гадает, а просто по очереди дергает нужные инструменты. Это очень большой шаг вперед для нейросетей, которые открыли Claude.
RAG для Lua: Как "скормить" нейронке всю Wiki Бластхака
Понятно-понятно, а что для наших луашеров?
И тут я спешу вас обрадовать, нас также не обделили и создали Context7 мощнейший инструмент для RAG, по сути это библиотека с огромным количеством документации вики, и даже обычных примеров кода.
👉 Ссылка на базу знаний BlastHack в Context7 (я её стабильно поддерживаю) 👈
👉 Ссылка на базу знаний BlastLibs в Context7, все популярные библиотеки (я её стабильно поддерживаю) 👈
👉 Ссылка на базу знаний BlastLibs в Context7, все популярные библиотеки (я её стабильно поддерживаю) 👈
И что нам дает этот инструмент?
На самом деле это развязывает нам руки, нейросеть не будет гадать, что ты от нее хочешь, она знает все опкоды функции и даже примеры кода.
Как же работает вообще context7 изнутри?
На самом деле я сам задавался этим вопросом довольно долго, я рыл инфу, но ничего не нашел поэтому начал свое исследование сам:
- Они делают webcrawl всех страниц docs или wiki.
- После этого они отдают вот эти сухие данные модели по типу Gemini для создание экземплов кода, обьяснение всех функций и опкодов.
- Далее нейросеть делает бенчмарк для нейросети и проверяют насколько эти данные качественные.
- А после эти данные уже попадают на MCP сервер.
Это решает все, буквально все, ведь нейросети больше не нужно выдумывать она может подключить библиотеку в данном случае blasthack wiki, после сделать запрос для mcp и поискать подходящую информацию к примеру как вывести сообщение, и она получит нужную функцию и даже примеры кода, что очень круто!
RAG: Что это на самом деле?
Я упомянул это в названии, но так и не рассказал, RAG - по сути просто документации разделенные на сниппеты и кэшированные данные, что позволяет нейросетям не забивать все контекстное окно вашими шедевральными документациями как посрать.
Рейтинг моделей 2026: На чем кодить луашнику?
Окей мы поняли, давайте перейдем уже к моделям. Личный мой фаворит именно для кодинга с MCP модулями является:
- Claude (Opus 4.5, Sonnet 4.5) - они дорогие не отрицаю, но они самые лучшие для кодинга.
- Gemini (Gemini 3 Flash, Gemini 3 Pro) - на втором месте. Огромное ПРОСТО КАПЕЦ какое огромное контекстное окно, что позволяет вам работать с ней очень долго, прям капец как долго, неплохо использует тулзы, бесплатные лимиты от разработчиков и сами по себе модели неплохие.
- ChatGPT (GPT 5.2 / Codex) - если вы не слышали про эту модель скорее всего вы живете в пещере, но сами модели по апи у них ужасные, а в последние время урезанные по типу того же провального GPT 5 (GPT 5.2). Codex модели неплохи, но неоправданно дорогие - за эти же деньги можно спокойно оплачивать токены для Sonnet 4.5 и получать тот же уровень.
Справочник для малышей в этой сфере:
Контекстное окно - по сути это сколько данных сможет удержать модель за сессию.
Токены - это базовые единицы текста, с которыми работает нейросеть. Если человек воспринимает текст как последовательность букв или слов, то нейросеть «видит» его как последовательность токенов. Это «атомы» языка для ИИ.
Где потестить и взять API?
| Модель | Где потестить | API |
| Gemini | AI Studio | API Keys |
| Claude | Claude Sonnet | Platform API |
| ChatGPT | ChatGPT | OpenAI API |
И нет я не рекомендую пользоваться агрегаторами по типу OpenRouter, это самое тупое че вы можете сделать, вы буквально соглашаетесь отдавать данные из своих приватных файлов им, что прямо у них указано.
От слов к делу: Выбираем Agentic Space
Первое, что я порекомендую вам это бросить обычный чат - вот реально он вам не пригодиться. Нам нужные агентные пространства, там где наша модель приобретает специальные возможности для создание файлов, прочтение этих файлов, подключение тех самых MCP. Плюс там чаще всего есть бесплатные токены.
Мой личный топ по агентным платформам:
- AntiGravity - вышла недавно, от гуглов очень хорошая агент платформа там есть хорошие лимиты для бесплатных пользователей на свои модели и даже на Claude ссылка: antigravity.google
- Cursor - самая популярная для агент кодинга, с щедрыми бесплатными лимитами на легенькие модельки, также там есть щедрый триал: cursor.com
- WindSurf - слабая платформа, агенты там настроены ужасно, иногда они даже не пишут код, но там есть щедрые лимиты для халявщиков: windsurf.com
Настройка на примере AntiGravity
IDE чаще всего это просто клон Visual Studio Code. Переходим в настройки, а после выбираем MCP сервера:
Далее нажимаем добавить MCP. Вам нужно подключить базовый context7. Именно для AntiGravity он подключается так (вставляете в поле настроек):
JSON:
{
"mcpServers": {
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp", "--api-key", "YOUR_API_KEY"]
}
}
}
Апи ключ можно получить бесплатно на Context7 Dashboard.
Вставляете в
YOUR_API_KEY и модель получает доступ к серверу (200 запросов в день бесплатно).Как подключить на других платформах можете узнать тут:Context 7 MCP connect гайды
Искусство "Обратного Промптинга"
И тут мы подходим к самому интересному и сложному. Знакомьтесь - обратный промптинг. Чтобы заставить написать модель что-то осмысленное, ты должен стать моделью. Представь, что ты нихуя не знаешь, тебе нужно подробно все обьяснить.
Задай себе пару вопросов: что ты хочешь? Насколько это возможно с нынешними данными? И начни составлять промпт.
Самая главная ошибка - это сейчас указывать роль типа "Senior Developer". Ребят, это было 2 года назад, это просто расточительство токенов. Нужно просто описать задачу. Скажи ей, чего тебе от нее надо, как она может это сделать, и ОБЯЗАТЕЛЬНО укажи библиотеки и версии.
Пример нормального промпта:
Код:
Твоя задача создать Lua скрипт для SAMP, данный LUA скрипт должен выводить определенное сообщение в чат, если у игрока в руках находиться оружие с 24 id (desert eagle). Используй Context7 библиотеку Blast Hack Wiki, не пиши код сразу.
Почему так? Лишняя громоздкость мешает моделям. Мы пишем "используй context7", потому что модели часто шлют нахуй наш MCP, думая что они самые умные. Мы суем им книги прямо в ебало.
Фишки, ошибки и итоги
Модели будут ошибаться и это нормально, вы тоже не пишите свой код с первой попытки. Если вы просто скинете лог ошибки, модель может поймет сама, но лучше сделать структурированный промпт где вы укажите свои возможные подозрения, это поможет модели в размышлении.
Мои фишки для вайбкодинга:
- Обратный промптинг.
- Создание ROADMAP для нейросети через нейросеть. Если поделить задачу на этапы, ИИ справиться лучше.
- Использование других MCP серверов. В сети их куча: от работы с гитхабом до реально крышесносных по типу Sequential Thinking, что заставляет модель работать в два раза лучше.
Самая частая ошибка новичков - это завышение ИИ до уровня богов. ИИ это лишь инструмент. Да, сложный, да бесячий, но инструмент. Со временем вы поймете паттерны ИИ и сможете писать качественный код даже для продакшена.
Итог: Развитие ИИ стало очень быстрым. Если два года назад они писали бред, то сейчас даже базовые сухие модели могут написать легенький скрипт. Моя документация - это база, от которой нужно опираться. Вайбкодинг - это будущее. Даже те же самые Claude используют его в разработке своего софта, а компании ценят этот навык.
Cпасибо за прочтение этой довольно громоздкой статьи, можете задавать вопросы я постараюсь ответить.
Последнее редактирование: