diff --git a/ru/chat.json b/ru/chat.json index 517be4b8..3fa58bdb 100644 --- a/ru/chat.json +++ b/ru/chat.json @@ -23,6 +23,12 @@ "noChatSelectedPlaceholder": "Выберите чат", "unnamedChat": "Безымянный чат", "emptyFolder": "Папка пуста", + + "tokenCount": "Счётчик токенов", + "messageTokenCount": "Счётчик входных токенов", + "tokenCount/hint": "Количество токенов в сообщении. Подсчитывается с использованием токенизатора текущей выбранной модели.\n\nТребуется загруженная модель.", + "messageTokenCount/hint": "Количество токенов в сообщении. Подсчитывается с использованием токенизатора текущей выбранной модели.\n\n**НЕ** включает оценку токенов во вложенных файлах.", + "notes": "Заметки к беседе", "notes/add/first": "Добавить заметку", "notes/add/another": "Добавить еще одну заметку", @@ -71,10 +77,11 @@ "editMessageConfirm/discard": "Отменить изменения", "tokenCount/totalNotAvailable": "Токенов: {{current}}", "tokenCount/totalAvailable": "Токенов: {{current}}/{{total}}", + "tokenCount/totalAvailablePercentage": "Контекст заполнен на {{percentage}}%", + "tokenCount/contextOverflow": "Необработанный контекст превышает максимальный лимит токенов модели. В зависимости от вашей политики переполнения контекста, контекст может быть обрезан или сообщение не будет отправлено.", "modelLoader/manualLoadParams/label": "Выберите параметры загрузки модели вручную", "modelLoader/manualLoadParams/hint/before": "(или удерживайте ", "modelLoader/manualLoadParams/hint/after": ")", - "actions/move/error": "Ошибка перемещения", "actions/rename/error": "Ошибка переименования", "actions/createChatAtRoot": "Создать новый чат", @@ -82,6 +89,7 @@ "actions/createFolderAtRoot": "Создать новую папку", "actions/createFolderAtRoot/error": "Не удалось создать папку на корневом уровне", "actions/createChat/error": "Не удалось создать чат", + "actions/deleteChat/errorTitle": "Ошибка удаления чата", "userFile/fileSizeLimit": "Ограничение размера файла: ", "userFile/noImageSupport": "Модель не поддерживает ввод изображений", @@ -91,11 +99,17 @@ "userFile/unsupportedFileType": "Неподдерживаемый тип файла - поддерживаются только изображения, PDF и текстовые файлы.", "userFile/maxFilesPerMessage": "Достигнуто максимальное количество файлов на одно сообщение. Нельзя добавить больше чем {{files}} файлов.", "userFile/maxFileSizePerMessage": "Превышен максимальный размер файла на одно сообщение. Нельзя добавить файлы размером больше {{size}}.", + "userFile/maxFileSizePerConversation": "Достигнут максимальный размер файла для разговора. Невозможно добавить файлы больше {{size}}. ", + "userFile/failedToUploadError/title": "Не удалось загрузить файл", + "userFile/failedToAddFile/title": "Не удалось добавить файл в чат", "errorTitle": "Ошибка", + "userFile/chatTerminalDocumentsCount_one": "{{count}} документ в чате", + "userFile/chatTerminalDocumentsCount_other": "{{count}} документов в чате", "prediction/busyModel/title": "Модель занята", "prediction/busyModel/message": "Пожалуйста, подождите, пока модель завершит работу, и попробуйте снова", "prediction/noModel/title": "Модель не выбрана", + "prediction/modelLoading": "Сообщение в очереди, будет отправлено, когда модель полностью загрузится", "prediction/noModel/message": "Выберите модель для отправки сообщения", "prediction/unloadModel/error": "Не удалось выгрузить модель", @@ -105,11 +119,110 @@ "retrieval/actions/clickToCollapse": "Нажмите, чтобы свернуть промежуточные шаги", "style": "Внешний вид чата", + "style/viewMode/markdown": "Markdown", "style/viewMode/plaintext": "Текст", "style/viewMode/monospace": "Моноширинный", + + "speculativeDecodingVisualization/toggle": "визуализировать принятые черновиковые токены", + "speculativeDecodingVisualization/fromDraftModel_one": "Принятые черновиковые токены", + "speculativeDecodingVisualization/fromDraftModel_other": "Принятые черновиковые токены", + "speculativeDecodingVisualization/cannotChangeViewMode": "Выбор режима просмотра отключен при визуализации черновиковых токенов.", + "style/fontSize/label": "Размер шрифта", "style/fontSize/medium": "По умолчанию", "style/fontSize/large": "Большой", - "style/fontSize/small": "Маленький" + "style/fontSize/small": "Маленький", + + "style/debugBlocks/label": "Показать информацию блоков отладки", + + "style/thinkingUI/label": "Раскрывать блоки рассуждений по умолчанию", + "style/chatFullWidth/label": "Растянуть область чата на всю ширину окна", + + "messageBlocks": { + "expandBlockTooltip": "Развернуть содержимое", + "collapseBlockTooltip": "Свернуть содержимое", + "debug": { + "label": "ИНФОРМАЦИЯ ОТЛАДКИ", + "collapseTooltip": "Свернуть блок информации отладки", + "expandTooltip": "Развернуть блок информации отладки" + } + }, + + "topBarActions/duplicateChat": "Дублировать", + "topBarActions/clearChat": "Очистить все", + "topBarActions/clearChatConfirmation": "Вы уверены, что хотите очистить все сообщения в этом чате?", + "topBarActions/clearChatCancel": "Отмена", + "topBarActions/clearChatDelete": "Очистить все", + + "noModels.indexing": "Индексация файлов модели... (это может занять некоторое время)", + "noModels.downloading": "Скачивается ваша первая LLM...", + "noModels": "LLM пока нет! Скачайте, чтобы начать!", + + "plugins": { + "pluginTrigger": { + "noPlugins": "Плагин", + "multiplePlugins": "{{dynamicValue}} плагинов" + }, + "pluginSelect": { + "title": "Плагины", + "dropdown": { + "configure": "Настроить", + "disable": "Отключить", + "fork": "Разветвить", + "uninstall": "Удалить" + }, + "actionButtons": { + "create": "+ Создать", + "import": "Импортировать", + "discover": "Найти" + }, + "recentlyCreated": { + "title": "Недавно созданные плагины", + "placeholder": "Созданные вами плагины будут отображаться здесь" + }, + "startRunningDevelopmentPlugin/error": "Не удалось запустить плагин в режиме разработки", + "stopRunningDevelopmentPlugin/error": "Не удалось остановить плагин в режиме разработки" + }, + "pluginConfiguration": { + "title": "Настройка плагина", + "selectAPlugin": "Выберите плагин для редактирования его конфигурации", + "preprocessorAndGenerator": "Этот плагин содержит собственный препроцессор и генератор", + "generatorOnly": "Этот плагин содержит только собственный генератор", + "preprocessorOnly": "Этот плагин содержит только собственный препроцессор" + }, + "instructions": { + "runTheFollowing": "Чтобы запустить свой плагин, откройте терминал и введите", + "pushTo": "Поделитесь своим плагином с другими, опубликовав его в Hub (необязательно)", + "createdSuccessfully": "Плагин успешно создан", + "creatingPlugin": "Создание плагина...", + "projectFilesTitle": "Файлы проекта", + "buttons": { + "documentation": "Документация", + "dismiss": "Закрыть", + "publish": "Опубликовать", + "openInZed": "Открыть в Zed", + "openInVscode": "Открыть в VS Code", + "revealInFinder": "Показать в Finder", + "openInFileExplorer": "Открыть в проводнике" + } + } + }, + + "genInfo": { + "tokensPerSecond": "{{tokensPerSecond}} токенов/сек", + "predictedTokensCount": "{{predictedTokensCount}} токенов", + "timeToFirstTokenSec": "{{timeToFirstTokenSec}} сек. до первого токена", + "stopReason": "Причина остановки: {{stopReason}}", + "stopReason.userStopped": "Остановлено пользователем", + "stopReason.modelUnloaded": "Модель выгружена", + "stopReason.failed": "Ошибка генерации", + "stopReason.eosFound": "Найден EOS токен", + "stopReason.stopStringFound": "Найдена стоп-строка", + "stopReason.toolCalls": "Вызовы инструментов", + "stopReason.maxPredictedTokensReached": "Достигнут максимальный лимит предсказанных токенов", + "stopReason.contextLengthReached": "Достигнут лимит длины контекста", + "speculativeDecodedBy": "Черновая модель: {{decodedBy}}", + "speculativeDecodingStats": "Принято {{accepted}}/{{total}} черновых токенов ({{percentage}}%)" + } } diff --git a/ru/config.json b/ru/config.json index fbe9c2ad..ff870717 100644 --- a/ru/config.json +++ b/ru/config.json @@ -21,63 +21,490 @@ "loadParameters/title": "Загрузить параметры", "loadParameters/description": "Настройки для контроля способа инициализации и загрузки модели в память.", "loadParameters/reload": "Перезагрузить, чтобы применить изменения", + "loadParameters/reload/error": "Не удалось перезагрузить модель", "discardChanges": "Отменить изменения", + "loadModelToSeeOptions": "Загрузить модель, чтобы увидеть параметры", + "schematicsError.title": "Схемы конфига содержат ошибки в следующих областях:", + "manifestSections": { + "structuredOutput/title": "Структурированный вывод", + "speculativeDecoding/title": "Спекулятивное декодирование", + "sampling/title": "Сэмплирование", + "settings/title": "Настройки", + "toolUse/title": "Использование инструментов", + "promptTemplate/title": "Шаблон промпта" + }, "llm.prediction.systemPrompt/title": "Системный промпт", "llm.prediction.systemPrompt/description": "Используйте это поле для предоставления фона модели, такого как набор правил, ограничений или общих требований. Это поле также часто называется \"системной подсказкой\".", "llm.prediction.systemPrompt/subTitle": "Руководство для ИИ", "llm.prediction.temperature/title": "Температура", + "llm.prediction.temperature/subTitle": "Как сильно добавлять случайность. При значении 0 результат будет одинаковым каждый раз, а при более высоких значениях – креативность и изменчивость увеличатся", "llm.prediction.temperature/info": "Из документации llama.cpp: \"Значение по умолчанию <{{dynamicValue}}> обеспечивает баланс между случайностью и детерминизмом. В крайнем случае, температура 0 всегда будет выбирать наиболее вероятный следующий токен, приводя к идентичным результатам при каждом запуске\"", + "llm.prediction.llama.sampling/title": "Сэмплирование", "llm.prediction.topKSampling/title": "Сэмплирование Top K", + "llm.prediction.topKSampling/subTitle": "Ограничивает следующий токен одним из top-k наиболее вероятных токенов. Работает аналогично температуре", "llm.prediction.topKSampling/info": "Из документации llama.cpp:\n\nСэмплирование Top-k - это метод генерации текста, который выбирает следующий токен только из k наиболее вероятных токенов, предсказанных моделью.\n\nЭто помогает снизить риск генерации маловероятных или бессмысленных токенов, но также может ограничить разнообразие вывода.\n\nБолее высокое значение для top-k (например, 100) будет учитывать больше токенов и приведет к более разнообразному тексту, в то время как более низкое значение (например, 10) сосредоточится на наиболее вероятных токенах и сгенерирует более консервативный текст.\n\n• Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.llama.cpuThreads/title": "Потоки CPU", + "llm.prediction.llama.cpuThreads/subTitle": "Количество используемых CPU-потоков во время вывода", "llm.prediction.llama.cpuThreads/info": "Количество потоков, используемых во время вычислений. Увеличение числа потоков не всегда коррелирует с лучшей производительностью. По умолчанию <{{dynamicValue}}>.", "llm.prediction.maxPredictedTokens/title": "Ограничить длину ответа", + "llm.prediction.maxPredictedTokens/subTitle": "Опционально ограничьте длину ответа ИИ", "llm.prediction.maxPredictedTokens/info": "Контролирует максимальную длину ответа чат-бота. Включите, чтобы установить ограничение на максимальную длину ответа, или выключите, чтобы позволить чат-боту самому решать, когда остановиться.", "llm.prediction.maxPredictedTokens/inputLabel": "Максимальная длина ответа (в токенах)", "llm.prediction.maxPredictedTokens/wordEstimate": "Примерно {{maxWords}} слов", "llm.prediction.repeatPenalty/title": "Штраф за повторение", + "llm.prediction.repeatPenalty/subTitle": "Как сильно снизить повторение одного и того же токена", "llm.prediction.repeatPenalty/info": "Из документации llama.cpp: \"Помогает предотвратить генерацию моделью повторяющегося или монотонного текста.\n\nБолее высокое значение (например, 1.5) будет сильнее штрафовать повторения, в то время как более низкое значение (например, 0.9) будет более снисходительным.\" • Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.minPSampling/title": "Сэмплирование Min P", + "llm.prediction.minPSampling/subTitle": "Минимальная базовая вероятность выбора токена для вывода", "llm.prediction.minPSampling/info": "Из документации llama.cpp:\n\nМинимальная вероятность для рассмотрения токена, относительно вероятности наиболее вероятного токена. Должна быть в диапазоне [0, 1].\n\n• Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.topPSampling/title": "Сэмплирование Top P", + "llm.prediction.topPSampling/subTitle": "Минимальная суммарная вероятность возможных следующих токенов. Работает аналогично температуре", "llm.prediction.topPSampling/info": "Из документации llama.cpp:\n\nСэмплирование Top-p, также известное как ядерное сэмплирование, - это еще один метод генерации текста, который выбирает следующий токен из подмножества токенов, которые вместе имеют кумулятивную вероятность не менее p.\n\nЭтот метод обеспечивает баланс между разнообразием и качеством, учитывая как вероятности токенов, так и количество токенов для выборки.\n\nБолее высокое значение для top-p (например, 0.95) приведет к более разнообразному тексту, в то время как более низкое значение (например, 0.5) сгенерирует более сфокусированный и консервативный текст. Должно быть в диапазоне (0, 1].\n\n• Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.stopStrings/title": "Стоп-строки", + "llm.prediction.stopStrings/subTitle": "Строки, которые должны остановить модель от генерации дополнительных токенов", "llm.prediction.stopStrings/info": "Определенные строки, при встрече которых модель прекратит генерацию дополнительных токенов", "llm.prediction.stopStrings/placeholder": "Введите строку и нажмите ⏎", "llm.prediction.contextOverflowPolicy/title": "Переполнение контекста разговора", + "llm.prediction.contextOverflowPolicy/subTitle": "Как модель должна вести себя, когда разговор становится слишком длинным для обработки", "llm.prediction.contextOverflowPolicy/info": "Определите, что делать, когда разговор превышает размер рабочей памяти модели ('контекст')", - "customInputs.contextOverflowPolicy.stopAtLimit": "Остановиться на пределе", - "customInputs.contextOverflowPolicy.stopAtLimitSub": "Прекратить генерацию, как только память модели заполнится", - "customInputs.contextOverflowPolicy.truncateMiddle": "Обрезать середину", - "customInputs.contextOverflowPolicy.truncateMiddleSub": "Удаляет сообщения из середины разговора, чтобы освободить место для новых. Модель все еще будет помнить начало разговора", - "customInputs.contextOverflowPolicy.rollingWindow": "Скользящее окно", - "customInputs.contextOverflowPolicy.rollingWindowSub": "Модель всегда будет получать несколько последних сообщений, но может забыть начало разговора", - "llm.prediction.llama.frequencyPenalty/title": "Штраф за частоту", - "llm.prediction.llama.presencePenalty/title": "Штраф за присутствие", + "llm.prediction.llama.frequencyPenalty/title": "Штраф за повторение", + "llm.prediction.llama.presencePenalty/title": "Штраф за появление", "llm.prediction.llama.tailFreeSampling/title": "Сэмплирование без хвоста", - "llm.prediction.llama.locallyTypicalSampling/title": "Локально типичное сэмплирование", + "llm.prediction.llama.locallyTypicalSampling/title": "Сэмплирование, соответствующее локальной типичности", + "llm.prediction.llama.xtcProbability/title": "Вероятность сэмплирования XTC", + "llm.prediction.llama.xtcProbability/subTitle": "XTC (Исключить верхние варианты) сэмплирует только при активации с заданной вероятностью на каждом сгенерированном токене. XTC-сэмплирование может повысить креативность и уменьшить клише", + "llm.prediction.llama.xtcProbability/info": "XTC (Исключить верхние варианты) сэмплирует только при активации с заданной вероятностью на каждом сгенерированном токене. XTC-сэмплирование обычно повышает креативность и уменьшает клише", + "llm.prediction.llama.xtcThreshold/title": "Порог XTC сэмплирования", + "llm.prediction.llama.xtcThreshold/subTitle": "Порог XTC (Исключить верхние варианты). С вероятностью `xtc-probability` ищите токены с вероятностями между `xtc-threshold` и 0,5 и удаляйте все такие токены, кроме наименее вероятного", + "llm.prediction.llama.xtcThreshold/info": "Порог XTC (Исключить верхние варианты). С вероятностью `xtc-probability` ищите токены с вероятностями между `xtc-threshold` и 0,5 и удаляйте все такие токены, кроме наименее вероятного", + "llm.prediction.mlx.topKSampling/title": "Сэмплирование Top K", + "llm.prediction.mlx.topKSampling/subTitle": "Ограничивает следующий токен одним из наиболее вероятных top-k токенов. Работает аналогично температуре", + "llm.prediction.mlx.topKSampling/info": "Ограничивает следующий токен одним из наиболее вероятных top-k токенов. Работает аналогично температуре", + "llm.prediction.onnx.topKSampling/title": "Сэмплирование Top K", + "llm.prediction.onnx.topKSampling/subTitle": "Ограничивает следующий токен одним из наиболее вероятных top-k токенов. Работает аналогично температуре", + "llm.prediction.onnx.topKSampling/info": "Из документации ONNX:\n\nКоличество наиболее вероятных токенов словарного запаса для фильтрации Top K\n\n• Этот фильтр отключен по умолчанию", + "llm.prediction.onnx.repeatPenalty/title": "Штраф за повторение", + "llm.prediction.onnx.repeatPenalty/subTitle": "Как снизить вероятность повторения одного и того же токена", + "llm.prediction.onnx.repeatPenalty/info": "Более высокое значение снижает вероятность повторения модели", + "llm.prediction.onnx.topPSampling/title": "Сэмплирование Top P", + "llm.prediction.onnx.topPSampling/subTitle": "Минимальная суммарная вероятность возможных следующих токенов. Работает аналогично температуре", + "llm.prediction.onnx.topPSampling/info": "Из документации ONNX:\n\nТолько наиболее вероятные токены с вероятностями, которые в сумме составляют TopP или выше, сохраняются для генерации\n\n• Этот фильтр отключен по умолчанию", "llm.prediction.seed/title": "Сид", "llm.prediction.structured/title": "Структурированный вывод", "llm.prediction.structured/info": "Структурированный вывод", + "llm.prediction.structured/description": "Дополнительно: вы можете предоставить [Схему JSON](https://json-schema.org/learn/miscellaneous-examples), чтобы принудительно соблюдать определённый формат вывода модели. Прочитайте [документацию](https://lmstudio.ai/docs/advanced/structured-output), чтобы узнать больше", + "llm.prediction.tools/title": "Использование инструментов", + "llm.prediction.tools/description": "Дополнительно: вы можете предоставить JSON-совместимый список инструментов для модели, чтобы запросить вызовы к ним. Прочитайте [документацию](https://lmstudio.ai/docs/advanced/tool-use), чтобы узнать больше", + "llm.prediction.tools/serverPageDescriptionAddon": "Передавайте это через тело запроса как `tools` при использовании серверного API", + "llm.prediction.promptTemplate/title": "Шаблон промпта", + "llm.prediction.promptTemplate/subTitle": "Формат, в котором сообщения в чате отправляются модели. Изменение этого может привести к неожиданному поведению - убедитесь, что вы знаете, что делаете!", + "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "Количество черновиковых токенов для генерации", + "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "Количество токенов, которые будут сгенерированы с использованием черновиковой модели на каждый токен основной модели. Найдите оптимальный баланс между вычислительными затратами и наградой", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "Порог продолжения генерации черновиков", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "Продолжать генерировать черновики до тех пор, пока вероятность токена не упадет ниже этого порога. Более высокие значения обычно означают меньший риск, меньшую награду", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "Минимальная длина черновика", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "Черновики длиной менее чем это не будут учитываться основной моделью. Более высокие значения обычно означают меньший риск, меньшую награду", + "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "Максимальная длина черновика", + "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "Максимальное количество токенов, разрешенное в черновике. Верхняя граница, если все вероятности токенов больше чем cutoff. Более низкие значения обычно означают меньший риск, меньшую награду", + "llm.prediction.speculativeDecoding.draftModel/title": "Черновиковая модель", + "llm.prediction.reasoning.parsing/title": "Разбор раздела рассуждений", + "llm.prediction.reasoning.parsing/subTitle": "Как анализировать разделы рассуждений в выходных данных модели", + "llm.load.contextLength/title": "Длина контекста", + "llm.load.contextLength/subTitle": "Максимальное количество токенов, на которые модель может обращать внимание в одном запросе. Подробнее о том, как управлять этим параметром, смотрите раздел «Параметры вывода» под «Параметрами разговора»", "llm.load.contextLength/info": "Определяет максимальное количество токенов, которое модель может рассматривать одновременно, влияя на то, сколько контекста она сохраняет во время обработки", + "llm.load.contextLength/warning": "Установка большого значения длины контекста может значительно повлиять на использование памяти", "llm.load.seed/title": "Сид", + "llm.load.seed/subTitle": "Случайное число для генератора случайных чисел, используемого при создании текста. -1 означает случайный", "llm.load.seed/info": "Случайный сид: Устанавливает сид для генерации случайных чисел, чтобы обеспечить воспроизводимые результаты", + "llm.load.llama.evalBatchSize/title": "Размер пакета оценки", - "llm.load.llama.evalBatchSize/info": "Устанавливает количество примеров, обрабатываемых вместе в одном пакете во время оценки, влияя на скорость и использование памяти", - "llm.load.llama.ropeFrequencyBase/title": "Базовая частота RoPE", - "llm.load.llama.ropeFrequencyBase/info": "[Продвинутое] Настраивает базовую частоту для Rotary Positional Encoding, влияя на то, как встраивается позиционная информация", + "llm.load.llama.evalBatchSize/subTitle": "Количество входных токенов, обрабатываемых одновременно. Увеличение этого значения повышает производительность за счет увеличения использования памяти.", + "llm.load.llama.evalBatchSize/info": "Устанавливает количество примеров, обрабатываемых вместе в одном пакете во время оценки, что влияет на скорость и использование памяти.", + "llm.load.llama.ropeFrequencyBase/title": "Основа частоты RoPE", + "llm.load.llama.ropeFrequencyBase/subTitle": "Пользовательская базовая частота ротационных позиционных вложений (RoPE). Увеличение этого значения может улучшить производительность при высоких длинах контекста.", + "llm.load.llama.ropeFrequencyBase/info": "[Продвинутый] Настраивает базовую частоту Ротационного Позиционного Кодирования, влияющую на то, как позиционная информация кодируется.", "llm.load.llama.ropeFrequencyScale/title": "Масштаб частоты RoPE", - "llm.load.llama.ropeFrequencyScale/info": "[Продвинутое] Изменяет масштабирование частоты для Rotary Positional Encoding для контроля гранулярности позиционного кодирования", - "llm.load.llama.acceleration.offloadRatio/title": "Разгрузка GPU", - "llm.load.llama.acceleration.offloadRatio/info": "Установите соотношение вычислений для разгрузки на GPU. Установите 'выкл', чтобы отключить разгрузку GPU, или 'авто', чтобы позволить модели решать самостоятельно.", + "llm.load.llama.ropeFrequencyScale/subTitle": "Длина контекста масштабируется этим фактором для расширения эффективной длины контекста с помощью RoPE.", + "llm.load.llama.ropeFrequencyScale/info": "[Продвинутый] Изменяет масштабирование частоты Ротационного Позиционного Кодирования для управления гранулярностью позиционного кодирования.", + "llm.load.llama.acceleration.offloadRatio/title": "Передача на GPU", + "llm.load.llama.acceleration.offloadRatio/subTitle": "Количество дискретных слоев модели, которые будут вычисляться на GPU для ускорения GPU.", + "llm.load.llama.acceleration.offloadRatio/info": "Установите количество слоев, которые нужно перенести на GPU." , "llm.load.llama.flashAttention/title": "Flash Attention", - "llm.load.llama.flashAttention/info": "Ускоряет механизмы внимания для более быстрой и эффективной обработки", - "llm.load.llama.keepModelInMemory/title": "Держать модель в памяти", - "llm.load.llama.keepModelInMemory/info": "Предотвращает выгрузку модели на диск, обеспечивая более быстрый доступ за счет повышенного использования ОЗУ", - "llm.load.llama.useFp16ForKVCache/title": "Использовать FP16 для KV-кэша", - "llm.load.llama.useFp16ForKVCache/info": "Уменьшает использование памяти за счет хранения кэша в половинной точности (FP16)", + "llm.load.llama.flashAttention/subTitle": "Снижает использование памяти и время генерации для некоторых моделей", + "llm.load.llama.flashAttention/info": "Ускоряет механизмы внимания для более быстрой и эффективной обработки.", + "llm.load.numExperts/title": "Количество экспертов", + "llm.load.numExperts/subTitle": "Количество экспертов, которые будут использоваться в модели.", + "llm.load.numExperts/info": "Количество экспертов, используемых в модели.", + "llm.load.llama.keepModelInMemory/title": "Хранить модель в памяти", + "llm.load.llama.keepModelInMemory/subTitle": "Выделять системную память для модели, даже при переносе на GPU. Улучшает производительность, но требует больше оперативной памяти.", + "llm.load.llama.keepModelInMemory/info": "Предотвращает выгрузку модели на диск, обеспечивая более быстрый доступ за счет увеличения использования RAM.", + "llm.load.llama.useFp16ForKVCache/title": "Использовать FP16 для кэша KV", + "llm.load.llama.useFp16ForKVCache/info": "Снижает использование памяти, сохраняя кэш в половинной точности (FP16).", "llm.load.llama.tryMmap/title": "Попробовать mmap()", - "llm.load.llama.tryMmap/info": "Загружает файлы модели напрямую с диска в память" + "llm.load.llama.tryMmap/subTitle": "Улучшает время загрузки модели. Отключение этого может повысить производительность, если модель больше доступной системной памяти.", + "llm.load.llama.tryMmap/info": "Загружать файлы модели непосредственно из диска в память.", + "llm.load.llama.cpuThreadPoolSize/title": "Размер пула потоков CPU", + "llm.load.llama.cpuThreadPoolSize/subTitle": "Количество CPU-потоков, выделяемых в пул потоков, используемый для вычислений модели.", + "llm.load.llama.cpuThreadPoolSize/info": "Количество CPU-потоков, выделяемых в пул потоков, используемый для вычислений модели. Увеличение количества потоков не всегда приводит к улучшению производительности. Значение по умолчанию - <{{dynamicValue}}>.", + "llm.load.llama.kCacheQuantizationType/title": "Тип квантизации кэша KV", + "llm.load.llama.kCacheQuantizationType/subTitle": "Более низкие значения снижают использование памяти, но могут ухудшить качество. Эффект сильно варьируется между моделями.", + "llm.load.llama.vCacheQuantizationType/title": "Тип квантизации кэша V", + "llm.load.llama.vCacheQuantizationType/subTitle": "Более низкие значения снижают использование памяти, но могут ухудшить качество. Эффект сильно варьируется между моделями.", + "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Необходимо отключить это значение, если Flash Attention не включен", + "llm.load.llama.vCacheQuantizationType/disabledMessage": "Можно включать только при включении Flash Attention", + "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ Необходимо отключить flash attention при использовании F32", + "llm.load.mlx.kvCacheBits/title": "Квантизация кэша KV", + "llm.load.mlx.kvCacheBits/subTitle": "Количество бит, на которые должен быть квантован кэш KV", + "llm.load.mlx.kvCacheBits/info": "Количество бит, на которые должен быть квантован кэш KV", + "llm.load.mlx.kvCacheBits/turnedOnWarning": "Настройка длины контекста игнорируется при использовании Квантизации кэша KV", + "llm.load.mlx.kvCacheGroupSize/title": "Квантизация кэша KV: Размер группы", + "llm.load.mlx.kvCacheGroupSize/subTitle": "Размер группы во время операции квантования для кэша KV. Более крупный размер группы снижает использование памяти, но может ухудшить качество.", + "llm.load.mlx.kvCacheGroupSize/info": "Количество бит, на которые должен быть квантован кэш KV", + "llm.load.mlx.kvCacheQuantizationStart/title": "Квантизация кэша KV: Начать квантовать, когда длина контекста пересекает эту длину", + "llm.load.mlx.kvCacheQuantizationStart/subTitle": "Пороговая длина контекста для начала квантования кэша KV", + "llm.load.mlx.kvCacheQuantizationStart/info": "Пороговая длина контекста для начала квантования кэша KV", + "llm.load.mlx.kvCacheQuantization/title": "Квантизация кэша KV", + "llm.load.mlx.kvCacheQuantization/subTitle": "Квантовать кэш KV модели. Это может привести к более быстрой генерации и меньшему объему памяти,\nза счет ухудшения качества выходных данных модели.", + "llm.load.mlx.kvCacheQuantization/bits/title": "Количество бит для квантизации кэша KV", + "llm.load.mlx.kvCacheQuantization/bits/tooltip": "Количество бит, на которые нужно квантовать кэш KV", + "llm.load.mlx.kvCacheQuantization/bits/bits": "Бит", + "llm.load.mlx.kvCacheQuantization/groupSize/title": "Стратегия размера группы", + "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "Точность", + "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "Сбалансированный", + "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "Быстрый", + "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "Продвинуто: Конфигурация размера группы квантизации 'matmul'\n\n• Точность = размер группы 32\n• Сбалансированный = размер группы 64\n• Быстрый = размер группы 128", + "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "Начать квантовать, когда длина контекста достигает этой длины", + "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "Когда контекст достигает этого количества токенов,\nначните квантование кэша KV", + + "embedding.load.contextLength/title": "Длина контекста", + "embedding.load.contextLength/subTitle": "Максимальное количество токенов, которое модель может учитывать в одном запросе. Для получения более подробной информации о способах управления этим параметром, обратитесь к опциям \"Переполнение разговора\" в разделе \"Параметры вывода\"", + "embedding.load.contextLength/info": "Указывает максимальное количество токенов, которое модель может учитывать одновременно, влияя на то, сколько контекста она сохраняет во время обработки", + "embedding.load.llama.ropeFrequencyBase/title": "Основная частота RoPE", + "embedding.load.llama.ropeFrequencyBase/subTitle": "Настраиваемая основная частота для вращающихся позиционных вложений (RoPE). Увеличение этого значения может улучшить производительность при высокой длине контекста", + "embedding.load.llama.ropeFrequencyBase/info": "[Продвинуто] Настройка основной частоты для Кодирования Позиции с помощью Ротаций, влияющей на то, как позиционная информация кодируется", + "embedding.load.llama.evalBatchSize/title": "Размер пакета оценки", + "embedding.load.llama.evalBatchSize/subTitle": "Количество входных токенов для обработки за один раз. Увеличение этого значения повышает производительность, но увеличивает использование памяти", + "embedding.load.llama.evalBatchSize/info": "Устанавливает количество токенов, обрабатываемых вместе в одном пакете во время оценки", + "embedding.load.llama.ropeFrequencyScale/title": "Масштаб частоты RoPE", + "embedding.load.llama.ropeFrequencyScale/subTitle": "Длина контекста масштабируется этим фактором для расширения эффективной длины контекста с помощью RoPE", + "embedding.load.llama.ropeFrequencyScale/info": "[Продвинуто] Изменение масштаба частоты для Кодирования Позиции с помощью Ротаций для управления гранулированностью кодирования позиций", + "embedding.load.llama.acceleration.offloadRatio/title": "Выгрузка GPU", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "Количество дискретных слоев модели, которые будут вычисляться на GPU для ускорения GPU", + "embedding.load.llama.acceleration.offloadRatio/info": "Установите количество слоев, которые нужно выгрузить в GPU", + "embedding.load.llama.keepModelInMemory/title": "Сохранять модель в памяти", + "embedding.load.llama.keepModelInMemory/subTitle": "Выделить системную память для модели, даже при выгрузке на GPU. Улучшает производительность, но требует больше оперативной памяти", + "embedding.load.llama.keepModelInMemory/info": "Предотвращает вывод модели из памяти на диск, обеспечивая более быстрый доступ за счет увеличения использования ОЗУ", + "embedding.load.llama.tryMmap/title": "Попробовать mmap()", + "embedding.load.llama.tryMmap/subTitle": "Улучшает время загрузки модели. Отключение этой функции может повысить производительность, если модель больше доступной системной памяти", + "embedding.load.llama.tryMmap/info": "Загружать файлы модели непосредственно из диска в память", + "embedding.load.seed/title": "Сид", + "embedding.load.seed/subTitle": "Сид для генератора случайных чисел, используемого при генерации текста. -1 означает случайное значение", + + "embedding.load.seed/info": "Случайный сид: Устанавливает значение для генератора случайных чисел, чтобы обеспечить воспроизводимость результатов", + + "presetTooltip": { + "included/title": "Значения Предустановки", + "included/description": "Следующие поля будут применены", + "included/empty": "В данном контексте ни одно из полей этой предустановки не применяется.", + "included/conflict": "Вам будет предложено выбрать, применять ли это значение", + "separateLoad/title": "Конфигурация время загрузки", + "separateLoad/description.1": "Эта предустановка также включает в себя следующую конфигурацию время загрузки. Конфигурация время загрузки является глобальной для модели и требует перезагрузки модели для применения. Удерживайте", + "separateLoad/description.2": "чтобы применить к", + "separateLoad/description.3": ".", + "excluded/title": "Может не применяться", + "excluded/description": "Следующие поля включены в предустановку, но не применяются в текущем контексте.", + "legacy/title": "Предустановка (Устаревшая)", + "legacy/description": "Эта предустановка является устаревшей. Она включает в себя следующие поля, которые теперь автоматически обрабатываются или больше не актуальны.", + "button/publish": "Опубликовать на Хабе", + "button/pushUpdate": "Отправить изменения на Хаб", + "button/export": "Экспорт" + }, + + "customInputs": { + "string": { + "emptyParagraph": "<Пусто>" + }, + "checkboxNumeric": { + "off": "ВЫКЛ" + }, + "llamaCacheQuantizationType": { + "off": "ВЫКЛ" + }, + "mlxKvCacheBits": { + "off": "ВЫКЛ" + }, + "stringArray": { + "empty": "<Пусто>" + }, + "llmPromptTemplate": { + "type": "Тип", + "types.jinja/label": "Шаблон (Jinja)", + "jinja.bosToken/label": "Токен BOS", + "jinja.eosToken/label": "Токен EOS", + "jinja.template/label": "Шаблон", + "jinja/error": "Не удалось разобрать шаблон Jinja: {{error}}", + "jinja/empty": "Пожалуйста, введите шаблон Jinja выше.", + "jinja/unlikelyToWork": "Предоставленный вами шаблон Jinja, скорее всего, не будет работать, так как он не ссылается на переменную \"messages\". Пожалуйста, убедитесь, что вы правильно ввели шаблон.", + "types.manual/label": "Ручной", + "manual.subfield.beforeSystem/label": "Перед Системой", + "manual.subfield.beforeSystem/placeholder": "Введите префикс Системы...", + "manual.subfield.afterSystem/label": "После Системы", + "manual.subfield.afterSystem/placeholder": "Введите суффикс Системы...", + "manual.subfield.beforeUser/label": "Перед Пользователем", + "manual.subfield.beforeUser/placeholder": "Введите префикс Пользователя...", + "manual.subfield.afterUser/label": "После Пользователя", + "manual.subfield.afterUser/placeholder": "Введите суффикс Пользователя...", + "manual.subfield.beforeAssistant/label": "Перед Ассистентом", + "manual.subfield.beforeAssistant/placeholder": "Введите префикс Ассистента...", + "manual.subfield.afterAssistant/label": "После Ассистента", + "manual.subfield.afterAssistant/placeholder": "Введите суффикс Ассистента...", + "stopStrings/label": "Дополнительные стоп-строки", + "stopStrings/subTitle": "Стоп-строки, специфичные для шаблона, которые будут использоваться в дополнение к стоп-строкам, указанным пользователем." + }, + "contextLength": { + "maxValueTooltip": "Это максимальное количество токенов, которое модель была обучена обрабатывать. Нажмите, чтобы установить контекст на это значение", + "maxValueTextStart": "Модель поддерживает до", + "maxValueTextEnd": "токенов", + "tooltipHint": "Хотя модель может поддерживать определенное количество токенов, производительность может ухудшиться, если ресурсы вашего компьютера не могут справиться с нагрузкой - будьте осторожны при увеличении этого значения" + }, + "contextOverflowPolicy": { + "stopAtLimit": "Остановить при достижении лимита", + "stopAtLimitSub": "Останавливать генерацию, когда память модели заполнена", + "truncateMiddle": "Усечь посередине", + "truncateMiddleSub": "Удаляет сообщения из середины разговора, чтобы освободить место для новых. Модель все равно будет помнить начало разговора", + "rollingWindow": "Скользящее окно", + "rollingWindowSub": "Модель всегда будет получать несколько последних сообщений, но может забыть начало разговора" + }, + "llamaAccelerationOffloadRatio": { + "max": "МАКС", + "off": "ВЫКЛ" + }, + "llamaAccelerationSplitStrategy": { + "evenly": "Равномерно", + "favorMainGpu": "Предпочитать основной GPU" + }, + "speculativeDecodingDraftModel": { + "readMore": "Прочитать, как это работает", + "placeholder": "Выберите совместимую черновую модель", + "noCompatible": "Не найдено ни одной совместимой черновой модели для вашего текущего выбора модели", + "stillLoading": "Определение совместимых черновых моделей...", + "notCompatible": "Выбранная черновая модель () несовместима с текущим выбором модели ().", + "off": "ВЫКЛ", + "loadModelToSeeOptions": "Загрузить модель чтобы увидеть совместимые варианты", + "compatibleWithNumberOfModels": "Рекомендовано для как минимум {{dynamicValue}} ваших моделей", + "recommendedForSomeModels": "Рекомендовано для некоторых моделей", + "recommendedForLlamaModels": "Рекомендовано для моделей Llama", + "recommendedForQwenModels": "Рекомендовано для моделей Qwen", + "onboardingModal": { + "introducing": "Представляем", + "speculativeDecoding": "Спекулятивное декодирование", + "firstStepBody": "Ускорение инференса для моделей llama.cpp и MLX", + "secondStepTitle": "Ускорение инференса с помощью Спекулятивного декодирования", + "secondStepBody": "Спекулятивное декодирование — это техника, включающая сотрудничество двух моделей:\n - Более крупная «основная» модель\n - Меньшая «черновая» модель\n\nВо время генерации черновая модель быстро предлагает токены для основной модели, которую нужно проверить. Проверка токенов — гораздо более быстрый процесс, чем их фактическое генерирование, что является источником ускорения.\n **Обычно, чем больше разница в размерах между основной и черновой моделями, тем выше скорость**.\n\nДля поддержания качества основная модель принимает только те токены, которые соответствуют тому, что она бы сгенерировала сама, что позволяет поддерживать качество ответа более крупной модели при более быстром инференсе. Обе модели должны использовать один и тот же словарь.", + "draftModelRecommendationsTitle": "Рекомендации по черновой модели", + "basedOnCurrentModels": "На основе ваших текущих моделей", + "close": "Закрыть", + "next": "Далее", + "done": "Готово" + }, + "speculativeDecodingLoadModelToSeeOptions": "Сначала загрузите модель ", + "errorEngineNotSupported": "Спекулятивное декодирование требует как минимум версии {{minVersion}} движка {{engineName}}. Обновите движок () и перезагрузите модель, чтобы использовать эту функцию.", + "errorEngineNotSupported/noKey": "Спекулятивное декодирование требует как минимум версии {{minVersion}} движка {{engineName}}. Обновите движок и перезагрузите модель, чтобы использовать эту функцию." + }, + "llmReasoningParsing": { + "startString/label": "Начальная строка", + "startString/placeholder": "Введите начальную строку...", + "endString/label": "Конечная строка", + "endString/placeholder": "Введите конечную строку..." + } + }, + "saveConflictResolution": { + "title": "Выберите, какие значения включить в Предустановку", + "description": "Выберите из предложенного, какие значения сохранить", + "instructions": "Нажмите на значение, чтобы включить его", + "userValues": "Предыдущее значение", + "presetValues": "Новое значение", + "confirm": "Подтвердить", + "cancel": "Отмена" + }, + "applyConflictResolution": { + "title": "Какие значения сохранить?", + "description": "У вас есть незафиксированные изменения, которые перекрываются с входящей Предустановкой", + "instructions": "Нажмите на значение, чтобы сохранить его", + "userValues": "Текущее значение", + "presetValues": "Значение входящей Предустановки", + "confirm": "Подтвердить", + "cancel": "Отмена" + }, + "empty": "<Пусто>", + "noModelSelected": "Ни одна модель не выбрана", + "apiIdentifier.label": "Идентификатор API", + "apiIdentifier.hint": "Необязательно укажите идентификатор для этой модели. Он будет использоваться в запросах API. Оставьте пустым, чтобы использовать стандартный идентификатор.", + "idleTTL.label": "Автоматическая разгрузка при простоях (TTL)", + "idleTTL.hint": "Если установлено значение, модель будет автоматически разгружена после периода бездействия, указанного в течение определённого времени.", + "idleTTL.mins": "мин.", + + "presets": { + "title": "Предустановка", + "commitChanges": "Зафиксировать изменения", + "commitChanges/description": "Зафиксируйте ваши изменения в предустановке.", + "commitChanges.manual": "Обнаружены новые поля. Вы сможете выбрать, какие изменения включить в предустановку.", + "commitChanges.manual.hold.0": "Приостановить", + "commitChanges.manual.hold.1": "чтобы выбрать, какие изменения зафиксировать в предустановке.", + "commitChanges.saveAll.hold.0": "Приостановить", + "commitChanges.saveAll.hold.1": "чтобы сохранить все изменения.", + "commitChanges.saveInPreset.hold.0": "Приостановить", + "commitChanges.saveInPreset.hold.1": "только чтобы сохранить изменения в поля, которые уже включены в предустановку.", + "commitChanges/error": "Не удалось зафиксировать изменения в предустановке.", + "commitChanges.manual/description": "Выберите, какие изменения включить в предустановку.", + "saveAs": "Сохранить как...", + "presetNamePlaceholder": "Введите имя для предустановки...", + "cannotCommitChangesLegacy": "Это устаревшая предустановка и ее нельзя изменять. Вы можете скопировать ее, используя «Сохранить как...».", + "cannotCommitChangesNoChanges": "Нет изменений для фиксации.", + "emptyNoUnsaved": "Выберите предустановку...", + "emptyWithUnsaved": "Несохраненная предустановка", + "saveEmptyWithUnsaved": "Сохранить предустановку как...", + "saveConfirm": "Сохранить", + "saveCancel": "Отмена", + "saving": "Сохранение...", + "save/error": "Не удалось сохранить предустановку.", + "deselect": "Снять выделение с предустановки", + "deselect/error": "Не удалось снять выделение с предустановки.", + "select/error": "Не удалось выбрать предустановку.", + "delete/error": "Не удалось удалить предустановку.", + "discardChanges": "Отменить несохраненные изменения", + "discardChanges/info": "Отменить все незафиксированные изменения и восстановить предустановку в ее исходное состояние", + "newEmptyPreset": "+ Новая предустановка", + "importPreset": "Импорт", + "contextMenuSelect": "Применить предустановку", + "contextMenuDelete": "Удалить...", + "contextMenuShare": "Опубликовать...", + "contextMenuOpenInHub": "Просмотреть на Хабе", + "contextMenuPushChanges": "Отправить изменения в Хаб", + "contextMenuPushingChanges": "Отправка изменений...", + "contextMenuPushedChanges": "Изменения отправлены", + "contextMenuExport": "Экспорт файла", + "contextMenuRevealInExplorer": "Показать в Проводнике", + "contextMenuRevealInFinder": "Показать в Finder", + "share": { + "title": "Опубликовать предустановку", + "action": "Поделитесь своей предустановкой с другими, чтобы они могли скачать, поставить лайк и создать ее копию", + "presetOwnerLabel": "Владелец", + "uploadAs": "Ваша предустановка будет создана как {{name}}", + "presetNameLabel": "Название предустановки", + "descriptionLabel": "Описание (необязательно)", + "loading": "Публикация...", + "success": "Предустановка успешно опубликована", + "presetIsLive": " теперь доступна на Хабе!", + "close": "Закрыть", + "confirmViewOnWeb": "Просмотреть в браузере", + "confirmCopy": "Копировать URL", + "confirmCopied": "Скопировано!", + "pushedToHub": "Ваша предустановка была опубликована на Хабе", + "descriptionPlaceholder": "Введите описание...", + "willBePublic": "Публикация вашей предустановки сделает ее общедоступной", + "publicSubtitle": "Ваша предустановка общедоступна. Другие могут скачивать и создавать ее копию на lmstudio.ai", + "confirmShareButton": "Опубликовать", + "error": "Не удалось опубликовать предустановку", + "createFreeAccount": "Создайте бесплатную учетную запись в Хабе, чтобы публиковать предустановки" + }, + "update": { + "title": "Отправить изменения на Хаб", + "title/success": "Предустановка успешно обновлена", + "subtitle": "Внесите изменения в и отправьте их на Хаб", + "descriptionLabel": "Описание", + "descriptionPlaceholder": "Введите описание...", + "loading": "Отправка...", + "cancel": "Отмена", + "createFreeAccount": "Создайте бесплатную учетную запись в Хабе, чтобы публиковать предустановки", + "error": "Не удалось отправить обновление", + "confirmUpdateButton": "Отправить" + }, + "import": { + "title": "Импортировать предустановку из файла", + "dragPrompt": "Перетащите файлы JSON предустановок или выберите со своего компьютера", + "remove": "Удалить", + "cancel": "Отмена", + "importPreset_zero": "Импортировать предустановку", + "importPreset_one": "Импортировать предустановку", + "importPreset_other": "Импортировать предустановки: {{count}}", + "selectDialog": { + "title": "Выберите файл предустановки (.json)", + "button": "Импортировать" + }, + "error": "Не удалось импортировать предустановку", + "resultsModal": { + "titleSuccessSection_one": "Успешно импортирована 1 предустановка", + "titleSuccessSection_other": "Успешно импортировано {{count}} предустановок", + "titleFailSection_zero": "", + "titleFailSection_one": "({{count}} не удалось)", + "titleFailSection_other": "({{count}} не удалось)", + "titleAllFailed": "Не удалось импортировать предустановки", + "importMore": "Импортировать ещё", + "close": "Готово", + "successBadge": "Успешно", + "alreadyExistsBadge": "Предустановка уже существует", + "errorBadge": "Ошибка", + "invalidFileBadge": "Неверный файл", + "otherErrorBadge": "Не удалось импортировать предустановку", + "errorViewDetailsButton": "Просмотреть детали", + "seeError": "Посмотреть ошибку", + "noName": "Нет названия предустановки", + "useInChat": "Использовать в чате" + }, + "importFromUrl": { + "button": "Импортировать из URL...", + "title": "Импортировать из URL", + "back": "Импортировать из файла...", + "action": "Вставьте URL Хаба LM Studio, содержащий предустановку, которую вы хотите импортировать, ниже", + "invalidUrl": "Неверный URL. Убедитесь, что вы вставляете правильный URL Хаба LM Studio.", + "tip": "Можно установить предустановку напрямую с помощью кнопки {{buttonName}} в LM Studio Hub", + "confirm": "Импортировать", + "cancel": "Отмена", + "loading": "Импорт...", + "error": "Не удалось скачать предустановку." + } + }, + "download": { + "title": "Скачать из LM Studio Hub", + "subtitle": "Сохраните в свои предустановки. Это позволит вам использовать эту предустановку в приложении", + "button": "Скачать", + "button/loading": "Скачивание...", + "cancel": "Отмена", + "error": "Не удалось скачать предустановку." + }, + "inclusiveness": { + "speculativeDecoding": "Включить в предустановку" + } + }, + "flashAttentionWarning": "Flash Attention — экспериментальная функция, которая может вызвать проблемы с некоторыми моделями. Если вы столкнетесь с проблемами, попробуйте отключить ее.", + "llamaKvCacheQuantizationWarning": "Квантизация KV-кэша — экспериментальная функция, которая может вызвать проблемы с некоторыми моделями. Flash Attention должна быть включена для квантования V-кэша. Если вы столкнетесь с проблемами, вернитесь к значениям по умолчанию \"F16\".", + + "seedUncheckedHint": "Случайный сид", + "ropeFrequencyBaseUncheckedHint": "Авто", + "ropeFrequencyScaleUncheckedHint": "Авто", + + "hardware": { + "advancedGpuSettings": "Дополнительные настройки GPU", + "advancedGpuSettings.info": "Если вы не уверены что это, оставьте эти параметры со значениями по умолчанию", + "advancedGpuSettings.reset": "Сбросить до значений по умолчанию", + "environmentVariables": { + "title": "Переменные окружения", + "description": "Активные переменные окружения во время работы модели.", + "key.placeholder": "Выбрать переменную...", + "value.placeholder": "Значение" + }, + "mainGpu": { + "title": "Основной GPU", + "description": "GPU, который следует отдавать приоритету для вычислений модели.", + "placeholder": "Выбрать основной GPU..." + }, + "splitStrategy": { + "title": "Стратегия разделения", + "description": "Как распределить вычисления модели между GPU.", + "placeholder": "Выбрать стратегию разделения..." + } + } } diff --git a/ru/developer.json b/ru/developer.json index 581ee33c..d2b79d00 100644 --- a/ru/developer.json +++ b/ru/developer.json @@ -1,44 +1,59 @@ { "tabs/server": "Локальный сервер", - "tabs/extensions": "LM RUNTIME", - "loadSettings/title": "Настройки загрузки", - "modelSettings/placeholder": "Выберите модель для настройки", + "tabs/extensions": "LM Runtimes", + "loadSettings/title": "Загрузить настройки", + "modelSettings/placeholder": "Выбрать модель для настройки", + + "loadedModels/noModels": "Нет загруженных моделей", - "loadedModels/noModels": "Модели не загружены", - "serverOptions/title": "Настройки сервера", "serverOptions/configurableTitle": "Настраиваемые параметры", - "serverOptions/port/hint": "Установите сетевой порт, который будет использовать локальный сервер. По умолчанию LM Studio использует порт 1234. Возможно, вам придется изменить его, если порт уже занят.", + "serverOptions/port/hint": "Укажите порт, который будет использоваться локальным сервером. По умолчанию LM Studio использует порт 1234. Возможно, вам потребуется изменить его, если этот порт уже используется.", "serverOptions/port/subtitle": "Порт для прослушивания", - "serverOptions/autostart/title": "Автоматический запуск сервера", - "serverOptions/autostart/hint": "Запускать локальный сервер автоматически при загрузке модели", + "serverOptions/autostart/title": "Автозапуск сервера", + "serverOptions/autostart/hint": "Включите автоматический запуск локального сервера LLM LM Studio при запуске приложения или службы.", "serverOptions/port/integerWarning": "Номер порта должен быть целым числом", - "serverOptions/port/invalidPortWarning": "Порт должен быть в пределах от 1 до 65535", + "serverOptions/port/invalidPortWarning": "Порт должен находиться в диапазоне от 1 до 65535", "serverOptions/cors/title": "Включить CORS", - "serverOptions/cors/hint1": "Включение CORS (Cross-origin Resource Sharing) позволит веб-сайтам, которые вы посещаете, делать запросы к серверу LM Studio.", - "serverOptions/cors/hint2": "CORS может быть необходим для запросов с веб-страниц или расширений, таких как VS Code.", - "serverOptions/cors/subtitle": "Разрешить кросс-доменные запросы", - "serverOptions/network/title": "Доступ по локальной сети", - "serverOptions/network/subtitle": "Открыть сервер для устройств в сети", - "serverOptions/network/hint1": "Разрешить подключения с других устройств в сети.", - "serverOptions/network/hint2": "Если не отмечено, сервер будет слушать только на localhost.", - "serverOptions/verboseLogging/title": "Подробное ведение журнала", - "serverOptions/verboseLogging/subtitle": "Включить подробное ведение журнала для локального сервера", - "serverOptions/contentLogging/title": "Ведение журнала запросов и ответов", - "serverOptions/contentLogging/subtitle": "Настройки ведения журнала запросов / ответов", - "serverOptions/contentLogging/hint": "Записывать ли запросы и/или ответы в файл журнала локального сервера.", + "serverOptions/cors/hint1": "Включение CORS (Cross-origin Resource Sharing) позволит сайтам, которые вы посещаете, отправлять запросы на сервер LM Studio.", + "serverOptions/cors/hint2": "CORS может потребоваться при выполнении запросов с веб-страницы или VS Code / других расширений.", + "serverOptions/cors/subtitle": "Разрешить межсайтовые запросы", + "serverOptions/network/title": "Обслуживание по локальной сети", + "serverOptions/network/subtitle": "Опубликовать сервер в сети", + "serverOptions/network/hint1": "Включить ли разрешены подключения с других устройств в сети.", + "serverOptions/network/hint2": "Если не отмечено, сервер будет прослушивать только localhost.", + "serverOptions/verboseLogging/title": "Подробное логирование", + "serverOptions/verboseLogging/subtitle": "Включить подробное логирование для локального сервера", + "serverOptions/contentLogging/title": "Логировать запросы и ответы", + "serverOptions/contentLogging/subtitle": "Настройки ведения журнала запросов / ответов локального сервера", + "serverOptions/contentLogging/hint": "Включить или нет логирование запросов и/или ответов в журнале логов локального сервера.", + "serverOptions/fileLoggingMode/title": "Режим ведения логирования файлов", + "serverOptions/fileLoggingMode/off/title": "ОТКЛЮЧЕНО", + "serverOptions/fileLoggingMode/off/hint": "Не создавать файлы логов", + "serverOptions/fileLoggingMode/succinct/title": "Сжимать", + "serverOptions/fileLoggingMode/succinct/hint": "Логировать то же, что и в консоли. Длинные запросы будут обрезаны.", + "serverOptions/fileLoggingMode/full/title": "Полное", + "serverOptions/fileLoggingMode/full/hint": "Не обрезать длинные запросы.", + "serverOptions/jitModelLoading/title": "Загрузка модели по требованию", + "serverOptions/jitModelLoading/hint": "При включении, если запрос указал модель, которая не загружена, она будет автоматически загружена и использована. Кроме того, конечная точка '/v1/models' также будет включать модели, которые еще не загружены.", "serverOptions/loadModel/error": "Не удалось загрузить модель", - - "serverLogs/scrollToBottom": "Перейти к концу", - "serverLogs/clearLogs": "Очистить журналы ({{shortcut}})", - "serverLogs/openLogsFolder": "Открыть папку с журналами сервера", - - "runtimeSettings/title": "Настройки выполнения", - "runtimeSettings/chooseRuntime/title": "Настроить Runtimes", - "runtimeSettings/chooseRuntime/description": "Выберите выполнение для каждого формата модели", - "runtimeSettings/chooseRuntime/showAllVersions/label": "Показать все версии", - "runtimeSettings/chooseRuntime/showAllVersions/hint": "По умолчанию LM Studio показывает только последнюю версию каждого runtime. Включите эту опцию, чтобы увидеть все доступные версии.", - "runtimeSettings/chooseRuntime/select/placeholder": "Выберите Runtime", + "serverOptions/jitModelLoadingTTL/title": "Автоматическая разгрузка неиспользуемых моделей JIT", + "serverOptions/jitModelLoadingTTL/hint": "Модель, которая была загружена Just-in-time (JIT) для обслуживания API-запроса, будет автоматически разгружена после того, как она не использовалась в течение определенного периода времени (TTL).", + "serverOptions/jitModelLoadingTTL/ttl/label": "Максимальное время простоя TTL", + "serverOptions/jitModelLoadingTTL/ttl/unit": "минуты", + "serverOptions/unloadPreviousJITModelOnLoad/title": "Сохранять только последнюю загруженную модель JIT", + "serverOptions/unloadPreviousJITModelOnLoad/hint": "Убедитесь, что одновременно загружена не более одной модели через JIT (разгружается предыдущая модель)", + + "serverLogs/scrollToBottom": "Перейти в конец", + "serverLogs/clearLogs": "Очистить логи ({{shortcut}})", + "serverLogs/openLogsFolder": "Открыть папку с логами сервера", + + "runtimeSettings/title": "Настройки Runtime", + "runtimeSettings/chooseRuntime/title": "По умолчанию", + "runtimeSettings/chooseRuntime/description": "Выберите предустановленный runtime для каждого формата модели", + "runtimeSettings/chooseRuntime/showAllVersions/label": "Показать все runtimes", + "runtimeSettings/chooseRuntime/showAllVersions/hint": "По умолчанию LM Studio показывает только последнюю версию каждого совместимого runtime. Включите этоот параметр, чтобы увидеть все доступные runtimes.", + "runtimeSettings/chooseRuntime/select/placeholder": "Выбрать Runtime", "runtimeOptions/uninstall": "Удалить", "runtimeOptions/uninstallDialog/title": "Удалить {{runtimeName}}?", @@ -47,17 +62,108 @@ "runtimeOptions/uninstallDialog/error": "Не удалось удалить runtime", "runtimeOptions/uninstallDialog/confirm": "Продолжить и удалить", "runtimeOptions/uninstallDialog/cancel": "Отмена", + "runtimeOptions/noCompatibleRuntimes": "Не найдено совместимых runtimes", + "runtimeOptions/downloadIncompatibleRuntime": "Этот runtime был определён как несовместимый с вашим устройством. Скорее всего, он не будет работать.", + "runtimeOptions/noRuntimes": "Нет runtimes", - "inferenceParams/noParams": "Нет настраиваемых параметров вывода для этого типа модели", + "runtimes": { + "manageLMRuntimes": "Управление LM Runtimes", + "includeOlderRuntimeVersions": "Включить старые версии runtime", + "dismiss": "Отмена", + "updateAvailableToast": { + "title": "Доступно обновление LM Runtime!" + }, + "updatedToast": { + "title": " ✅ LM Runtime обновлен: {{runtime}} → v{{version}}", + "preferencesUpdated": "Новые загруженные модели с {{compatibilityTypes}} будут использовать обновленный runtime." + }, + "noAvx2ErrorMessage": "Все LM Runtimes требуют процессора с AVX2", + "downloadableRuntimes": { + "runtimeExtensionPacks": "Пакеты расширений runtime", + "refresh": "Обновить", + "refreshing": "Загрузка...", + "filterSegment": { + "compatibleOnly": "Только совместимые", + "all": "Все" + }, + "card": { + "releaseNotes": "Примечания к выпуску", + "latestVersionInstalled": "Установлена последняя версия", + "updateAvailable": "Доступно обновление" + } + }, + "installedRuntimes": { + "manage": { + "title": "Управление активными runtime" + }, + "dropdownOptions": { + "installedVersions": "Управление версиями", + "close": "Закрыть" + }, + "tabs": { + "all": "Все", + "frameworks": "Мои фреймворки", + "engines": "Мои движки" + }, + "detailsModal": { + "installedVersions": "Установленные версии для {{runtimeName}}", + "manifestJsonTitle": "Manifest JSON (продвинутый)", + "releaseNotesTitle": "Примечания к выпуску", + "noReleaseNotes": "Нет доступных примечаний к выпуску для этой версии", + "back": "Назад", + "close": "Закрыть" + }, + "noEngines": "Нет установленных движков", + "noFrameworks": "Нет установленных фреймворков" + } + }, - "endpoints/openaiCompatRest/title": "Поддерживаемые конечные точки (похожие на OpenAI)", - "endpoints/openaiCompatRest/getModels": "Список текущих загруженных моделей", - "endpoints/openaiCompatRest/postCompletions": "Режим завершений текста. Предсказать следующие токены, исходя из запроса. Примечание: OpenAI считает эту конечную точку 'устаревшей'.", - "endpoints/openaiCompatRest/postChatCompletions": "Завершения чата. Отправить историю чата модели для предсказания следующего ответа ассистента", - "endpoints/openaiCompatRest/postEmbeddings": "Встраивание текста. Генерировать встраивания текста для данного текстового ввода. Принимает строку или массив строк.", + "inferenceParams/noParams": "Параметры инференса не доступны для данного типа модели", + + "quickDocs": { + "tabChipTitle": "Быстрые справки", + "newToolUsePopover": "Кодовые фрагменты теперь доступны здесь в \"Быстрых справках\". Нажмите здесь, чтобы начать использовать инструменты!", + "newToolUsePopoverTitle": "📚 Быстрые справки", + "learnMore": "ℹ️ 👾 Чтобы узнать больше о конечных точках локального сервера LM Studio, посетите [документацию](https://lmstudio.ai/docs).", + "helloWorld": { + "title": "Привет, Мир!" + }, + "chat": { + "title": "Чат" + }, + "structuredOutput": { + "title": "Структурированный вывод" + }, + "imageInput": { + "title": "Ввод изображений" + }, + "embeddings": { + "title": "Векторные представления" + }, + "toolUse": { + "title": "Использование инструментов", + "tab": { + "saveAsPythonFile": "Сохранить как файл Python", + "runTheScript": "Запустить скрипт:", + "savePythonFileCopyPaste": "Сохранить как файл Python для команды копирования и вставки" + } + }, + "newBadge": "Новый" + }, + + "endpoints/openaiCompatRest/title": "Поддерживаемые конечные точки (подобные OpenAI)", + "endpoints/openaiCompatRest/getModels": "Список загруженных моделей", + "endpoints/openaiCompatRest/postCompletions": "Режим завершения текста. Предсказание следующего токена(ов) на основе запроса. Обратите внимание: OpenAI считает этот конечный пункт 'устаревшим'.", + "endpoints/openaiCompatRest/postChatCompletions": "Завершения чата. Отправка истории чата модели для предсказания следующего ответа ассистента", + "endpoints/openaiCompatRest/postEmbeddings": "Векторное представление текста. Генерация векторных представлений текста на основе заданного текстового ввода. Принимает строку или массив строк.", "model.createVirtualModelFromInstance": "Сохранить настройки как новую виртуальную модель", - "model.createVirtualModelFromInstance/error": "Не удалось сохранить настройки как новую виртуальную модель", + "model.createVirtualModelFromInstance/error": "Не удалось сохранить настройки в качестве новой виртуальной модели", + + "model": { + "toolUseSectionTitle": "Использование инструментов", + "toolUseDescription": "Обнаружено, что эта модель обучена для использования инструментов\n\nОткройте quick docs для получения дополнительной информации" + }, - "apiConfigOptions/title": "Конфигурация API" + "apiConfigOptions/title": "Настройки API" } diff --git a/ru/download.json b/ru/download.json index c35fb647..aaf80d68 100644 --- a/ru/download.json +++ b/ru/download.json @@ -1,19 +1,23 @@ { "postDownloadActionExecutor.zipExtraction/status": "Извлечение...", - "finalizing": "Завершение загрузки... (это может занять некоторое время)", - "noOptions": "Нет совместимых опций для загрузки", + "finalizing": "Завершение скачивания... (это может занять некоторое время)", + "noOptions": "Нет совместимых вариантов для скачивания", - "deeplink/confirmation/title": "Загрузить модель с Hugging Face 🤗", + "deeplink/confirmation/title": "Скачать модель с Hugging Face 🤗", "deeplink/confirmation/subtitle": "{{modelName}}", "deeplink/confirmation/selectRecommended": "Выбрать рекомендованное", - "deeplink/confirmation/selectOption": "Выбрать опцию загрузки", + "deeplink/confirmation/selectOption": "Выберите вариант для скачивания", "deeplink/confirmation/recommendedOption": "Вероятно, лучший вариант для большинства пользователей", - "deeplink/confirmation/downloadButton": "Загрузить", + "deeplink/confirmation/downloadButton": "Скачать", "deeplink/confirmation/nevermindButton": "Неважно", "deeplink/confirmation/modelPresent/title": "Модель Hugging Face найдена ✅", "deeplink/confirmation/modelPresent/body": "Хорошие новости! Этот файл модели уже доступен на вашем локальном устройстве.", "deeplink/confirmation/loadInChat": "Загрузить {{ modelName }} в новый чат", "deeplink/error/modelNotFound/title": "Ой, мы не смогли найти эту модель", - "deeplink/error/modelNotFound/body": "Проверьте название модели и попробуйте другую опцию загрузки.", - "deeplink/actions/trySearching": "Попробуйте найти {{modelName}} на Hugging Face" + "deeplink/error/modelNotFound/body": "Проверьте название модели и попробуйте другой вариант скачивания.", + "deeplink/actions/trySearching": "Попробуйте найти {{modelName}} на Hugging Face", + + "downloadsPanel/title": "Загрузки", + "downloadsPanel/sectionTitle/ongoing": "В процессе", + "downloadsPanel/sectionTitle/completed": "Завершённые" } diff --git a/ru/models.json b/ru/models.json index 72466952..b6c7ca62 100644 --- a/ru/models.json +++ b/ru/models.json @@ -12,13 +12,16 @@ "modelsTable.arch/label": "Архитектура", "modelsTable.params/label": "Параметры", "modelsTable.publisher/label": "Издатель", - "modelsTable.llms/label": "LLM", - "modelsTable.embeddingModels/label": "Модель встраивания", - "modelsTable.quant/label": "Квант.", + "modelsTable.displayName/label": "Название", + "modelsTable.modelKey/label": "Ключ модели", "modelsTable.size/label": "Размер", "modelsTable.dateModified/label": "Дата изменения", "modelsTable.actions/label": "Действия", + "modelsTable.quant/label": "Квант.", + "modelsTable.llms/label": "LLM", + "modelsTable.embeddingModels/label": "Векторная модель", + "action.model.delete": "Удалить", "action.model.delete.full": "Удалить модель", "action.model.delete.confirmation/title": "Удалить {{name}}", @@ -64,22 +67,27 @@ "loadState/idle": "Ожидание", "pinned": "Эта модель закреплена. Щелкните правой кнопкой мыши, чтобы открепить.", "lastUsed": "Последнее использование", - "contextMenu/pin": "Закрепить наверху", - "contextMenu/unpin": "Открепить от верха", + "contextMenu/pin": "Закрепить вверху", + "contextMenu/unpin": "Открепить", "contextMenu/copyAbsolutePath": "Скопировать абсолютный путь", "contextMenu/copyModelName": "Скопировать путь модели", + "contextMenu/copyModelDefaultIdentifier": "Копировать идентификатор по умолчанию", + "contextMenu/showRawMetadata": "Показать необработанные метаданные", "contextMenu/openOnHuggingFace": "Открыть на Hugging Face", "tooltip/moreActions": "Другие действия", "tooltip/getInfo": "Получить информацию", "tooltip/editModelDefaultConfig": "Редактировать конфигурацию модели по умолчанию", "tooltip/editModelDefaultConfig/override": "Редактировать конфигурацию модели по умолчанию (* в настоящее время есть переопределения", "tooltip/visionBadge": "Эта модель может обрабатывать изображения", + "tooltip/toolUseBadge": "Эта модель обучена для использования инструментов", "visionBadge/label": "Включена обработка изображений", + "toolUseBadge/label": "Обучен для использования инструментов", "loader.action.load": "Загрузить модель", "loader.action.clearChanges": "Очистить изменения", "loader.action.cancel": "Отмена", "loader.info.clickOnModelToLoad": "Щелкните на модель, чтобы загрузить ее", - "loader.info.configureLoadParameters": "Настройте параметры загрузки модели" + "loader.info.configureLoadParameters": "Настройте параметры загрузки модели", + "loader.info.activeGeneratorWarning": "Вы используете плагин с пользовательским генератором. Ваша текущая загруженная модель может быть применена или нет, в зависимости от реализации генератора" } diff --git a/ru/onboarding.json b/ru/onboarding.json index 85483122..a8ca0d08 100644 --- a/ru/onboarding.json +++ b/ru/onboarding.json @@ -20,5 +20,23 @@ "description": "LLM будет анализировать ваш запрос и извлеченные из ваших документов фрагменты, и пытаться сгенерировать ответ. Экспериментируйте с различными запросами, чтобы найти наилучший результат." } } + }, + + "toolUse": { + "step_0": { + "title": "Бета: Использование инструментов 🛠️ (Вызов функций)", + "text_0": "Некоторые модели (например, Llama 3.1/3.2, Mistral, Qwen и другие) обучены использовать инструменты.", + "text_1": "Это означает, что вы предоставляете массив 'инструментов' (подписи функций) LLM в очень определенном формате, и LLM может решить, следует ли ему 'вызвать' их на основе запроса пользователя.", + "text_2": "Можно представить себе сценарии использования, такие как запрос к API, выполнение кода или что-либо другое, которое можно выразить в виде вызова функции." + }, + "step_1": { + "title": "Начните использовать инструменты", + "toolUseCanWorkWithAnyModel": "Модели, обученные для использования инструментов, будут работать лучше других, но вы можете попробовать использовать инструменты с любой моделью. Прочитайте документацию, чтобы узнать больше. Модели, обученные для использования инструментов, будут отмечены новым значком:", + "hasCompatibleModel": "🎉 Кажется, у вас уже есть модели с поддержкой инструментов!", + "downloadRecommendedModel": "Скачайте модель, обученную для использования инструментов:" + }, + "nextButton": "Далее", + "letsGoButton": "Загрузить модель и запустить сервер", + "doneButton": "Закрыть" } } diff --git a/ru/settings.json b/ru/settings.json index 6d69bf2e..5e5f9c1e 100644 --- a/ru/settings.json +++ b/ru/settings.json @@ -1,73 +1,183 @@ { - "appUpdate": "Обновление приложения", - "checkingAppUpdate": "Проверка наличия обновлений...", - "checkForUpdates": "Проверить наличие обновлений", - "failedCheckingAppUpdate": "Не удалось проверить наличие обновлений", - "newUpdateAvailable": "Доступно новое обновление LM Studio! 🎉", - "downloadingInProgress": "Выполняется скачивание обновления...", - "downloadUpdate": "Обновить LM Studio до версии {{version}}", - "yourCurrentVersion": "Вы используете версию:", - "latestVersion": "Самая новая версия:", - "downloadLabel": "Скачать обновление", - "cancelDownloadLabel": "Отменить загрузку", - "downloadingUpdate": "Выполняется скачивание обновления...", - "updateDownloaded": "Обновление загружено!", - "restartAppToUpdate": "Перезапустите приложение, чтобы применить обновление", - "doItLater": "Упомянуть позже", - "failedToUpdate": "Не удалось обновить приложение. Пожалуйста, проверьте подключение к Интернету или попробуйте снова позже.", - "retryInBackground": "Повторить в фоновом режиме", - "laterLabel": "Позже", - "releaseNotesLabel": "Изменения", - "remindMeLater": "Упомянуть позже", - "failedDownloadUpdate": "Не удалось загрузить обновление", - "installAndRelaunch": "Установить и перезапустить", - "uptodate": "Вы используете последнюю версию! Текущая версия: {{version}}", - "preferences": "Параметры", - "sideButtonLabels": "Показывать метки на боковых кнопках", - "colorThemeLabel": "Цветовая тема", - "complexityLevelLabel": "Уровень сложности интерфейса", - "selectComplexityLevelPlaceholder": "Выберите уровень сложности по умолчанию", - "userComplexityLevelLabel": "Пользователь", - "powerUserComplexityLevelLabel": "Пользователь с опытом", - "developerComplexityLevelLabel": "Разработчик", - "chatSettingsLabel": "Настройки чата", - "chat/alwaysShowPromptTemplate": "Показывать шаблон запроса в боковой панели чата", - "firstTimeExperienceLabel": "Первыое общение в чате", - "firstTimeExperienceMarkCompletedLabel": "Пометить как выполненное", - "firstTimeExperienceResetLabel": "Сбросить", - "showPromptSuggestionsLabel": "Показывать предложения по запросам при создании нового чата", - "shiftEnterToSendLabel": "Использовать Shift + Enter для отправки сообщения", - "darkThemeLabel": "Темная", - "lightThemeLabel": "Светлая", - "systemThemeLabel": "Авто", - "sepiaThemeLabel": "Сепия", - "unloadPreviousModelLabel": "При выборе модели для загрузки сначала выгрузите все загруженные в данный момент модели", - "languageLabel": "Язык", - "changeLanguageLabel": "Изменить язык приложения", - "developerLabel": "Разработчик", - "showExperimentalFeaturesLabel": "Показывать экспериментальные функции", - "appFirstLoadLabel": "Опыт первого запуска приложения", - "showDebugInfoBlocksInChatLabel": "Показывать блоки отладки в чате", - "autoLoadBundledLLMLabel": "Автоматически загружать встроенную LLM модель при запуске", - "showReleaseNotes": "Показать изменения", - "hideReleaseNotes": "Скрыть изменения", - "backendDownloadNewUpdate": "Доступны новые версии бэкенда!", - "backendDownloadNewUpdateAction": "Перейти на страницу разработчиков", - "backendDownloadChannel.label": "Канал скачивания расширений LM Studio", - "backendDownloadChannel.value.stable": "Стабильный", - "backendDownloadChannel.value.beta": "Бета", - "backendDownloadChannel.value.latest": "Для разработчиков", - "backendDownloadChannel.shortLabel": "Канал скачивания", - "backendDownloadChannel.hint": "Выберите канал скачивания расширений LM Studio. \"{{stableName}}\" - рекомендуемый канал для большинства пользователей.", - "modelLoadingGuardrails.label": "Защитные ограничения на загрузку моделей", - "modelLoadingGuardrails.description": "Загрузка моделей, выходящая за пределы системных ресурсов, может привести к нестабильности или зависанию системы. Ограждения предотвращают случайную перегрузку. При необходимости настройте эти пределы, но помните, что загрузка моделей, близких к пределу системы, может снизить стабильность.", - "modelLoadingGuardrails.value.off": "ВЫКЛ (Не рекомендуется)", - "modelLoadingGuardrails.value.low": "Слабые", - "modelLoadingGuardrails.value.medium": "Сбалансированные", - "modelLoadingGuardrails.value.high": "Консервативные", - "modelLoadingGuardrails.value.custom": "Пользовательское", - "modelLoadingGuardrails.custom.label": "Ограничение памяти: ", - "modelLoadingGuardrails.custom.unitGB": "ГБ", - "modelLoadingGuardrails.custom.description": "Установите пользовательский лимит памяти для загрузки моделей. Модели не будут загружаться, если их размер превысит этот лимит.", - "expandConfigsOnClick": "Раскрывать настройки при клике, а не при наведении" + "settingsDialogTitle": "Настройки приложения", + "settingsDialogButtonTooltip": "Настройки приложения", + + "settingsNewButtonPopover": { + "primary": "Настройки приложения теперь находятся в правом нижнем углу", + "secondary": "Нажмите на кнопку ⚙️, чтобы открыть их.", + "tertiary": "Или нажмите" + }, + "appUpdate": "Обновление приложения", + "checkingAppUpdate": "Проверка наличия обновлений...", + "checkForUpdates": "Проверить наличие обновлений", + "failedCheckingAppUpdate": "Не удалось проверить наличие обновлений", + "newUpdateAvailable": "Доступна новая версия LM Studio! 🎉", + "newBetaUpdateAvailable": "Доступна новая бета-версия LM Studio! 🛠️🎉", + "downloadingInProgress": "Загрузка обновления...", + "downloadUpdate": "Обновить LM Studio до версии {{version}}", + "downloadBetaUpdate": "Обновить LM Studio Beta до версии {{version}} (сборка {{build}})", + "downloadCompleted": "Скачивание завершено!", + "updateDownloadComplete": "Обновление LM Studio готово", + "updateDownloadFailed": "Не удалось обновить!", + "hasFinishedDownloading": "завершило скачивание.", + "yourCurrentVersion": "Вы сейчас используете:", + "latestVersion": "Последняя версия:", + "downloadLabel": "Обновить сейчас", + "downloadLabel/Linux": "Скачать обновление", + "cancelDownloadLabel": "Отмена", + "downloadingUpdate": "Скачивание {{item}}...", + "updateDownloaded": "Приложение необходимо перезапустить для применения обновления", + "restartAppToUpdate": "Перезапустить приложение, чтобы применить обновление", + "appUpdatedToastTitle": "Обновлено до {{title}}", + "appUpdatedToastDescriptionPrefix": "Посмотреть ", + "appUpdatedToastDescriptionReleaseNotes": "Примечания к выпуску", + "toolUseToastTitle": "Новое в бете: Использование инструментов и API вызовов функций", + "toolUseToastDescription": "Замена для использования инструментов OpenAI с поддержкой определенных моделей, таких как Llama 3.1/3.2, Mistral и Qwen.", + "toolUseToastButtonText": "Перейти на страницу разработчика, чтобы попробовать", + "doItLater": "Я сделаю это позже", + "failedToUpdate": "Не удалось обновить приложение. Убедитесь, что у вас имеется подключение к Интернету или попробуйте позже.", + "retryInBackground": "Повторить в фоновом режиме", + "laterLabel": "Позже", + "releaseNotesLabel": "Примечания к выпуску", + "remindMeLater": "Напомнить мне позже", + "failedDownloadUpdate": "Не удалось скачать обновление", + "installAndRelaunch": "Установить и перезапустить", + "uptodate": "Вы полностью обновлены! Текущая версия {{version}}", + "preferences": "Настройки", + "general": "Общие", + "sideButtonLabels": "Показывать текст боковых кнопок", + "showModelFileNames": "Мои модели: всегда показывать полное название файла модели", + "colorThemeLabel": "Цветовая тема", + "complexityLevelLabel": "Уровень сложности пользовательского интерфейса", + "selectComplexityLevelPlaceholder": "Выберите уровень сложности пользовательского интерфейса по умолчанию", + "userComplexityLevelLabel": "Пользователь", + "powerUserComplexityLevelLabel": "Опытный пользователь", + "developerComplexityLevelLabel": "Разработчик", + "chatSettingsLabel": "Настройки чата", + "chat/alwaysShowPromptTemplate": "Всегда отображать шаблон запроса в боковой панели чата", + "chat/highlightChatMessageOnHover": "Выделять сообщение чата при наведении курсора", + "chat/doubleClickMessageToEdit": "Дважды щелкните сообщение чата, чтобы отредактировать его", + + "chat/aiNaming/label": "Название чата с помощью ИИ", + "chat/aiNaming/mode/label": "Название чата, сгенерированные ИИ", + "chat/aiNaming/mode/value/never": "Никогда", + "chat/aiNaming/mode/value/never/subTitle": "Не создавать название чата, сгенерированные ИИ", + "chat/aiNaming/mode/value/auto": "Автоматически", + "chat/aiNaming/mode/value/auto/subTitle": "Решает, создавать ли название на основе скорости генерации", + "chat/aiNaming/mode/value/always": "Всегда", + "chat/aiNaming/mode/value/always/subTitle": "Создавать название чата, независимо от скорости генерации", + "chat/aiNaming/emoji": "Использовать эмодзи в названиях чата, сгенерированных ИИ", + "chat/keyboardShortcuts/label": "Сочетания клавиш", + "chat/keyboardShortcuts/verbPrefix": "Использовать", + "chat/keyboardShortcuts/regenerate": "для повторного создания последнего сообщения в чате", + "chat/keyboardShortcuts/sendMessage": "для отправки сообщения", + + "onboarding/blockTitle": "Советы при запуске", + "onboarding/dismissedHints": "Скрытые советы при запуске", + "onboarding/resetHintTooltip": "Нажмите, чтобы снова включить этот совет при запуске", + "onboarding/resetAllHints": "Сбросить все советы при запуске", + "onboarding/noneDismissed": "Нет отклонённых советов, в настоящее время все советы при запуске будут отображаться до следующего отклонения", + + "firstTimeExperienceLabel": "Опыт запуска первого чата", + "firstTimeExperienceMarkCompletedLabel": "Отметить как завершённое", + "firstTimeExperienceResetLabel": "Сбросить", + "showPromptSuggestionsLabel": "Показывать подсказки для запросов при создании нового чата", + "darkThemeLabel": "Тёмная", + "lightThemeLabel": "Светлая", + "systemThemeLabel": "Автоматически", + "sepiaThemeLabel": "Сепия", + "unloadPreviousModelLabel": "При выборе модели для загрузки, сначала выгрузите все модели, которые в настоящее время загружены", + "languageLabel": "Язык", + "changeLanguageLabel": "Выберите язык приложения (в разработке)", + "developerLabel": "Разработчик", + "localServiceLabel": "Локальная служба LLM (без головного модуля)", + "showExperimentalFeaturesLabel": "Показывать экспериментальные функции", + "appFirstLoadLabel": "Опыт первого запуска приложения", + "showDebugInfoBlocksInChatLabel": "Показывать блоки отладочной информации в чате", + "autoLoadBundledLLMLabel": "Автоматически загружать пакетную LLM-модель при запуске", + "showReleaseNotes": "Показать заметки о выпуске", + "hideReleaseNotes": "Скрыть заметки о выпуске", + + "backendDownloadNewUpdate": "Доступны новые бэкенды!", + "backendDownloadNewUpdateAction": "Перейти на страницу разработчика", + + "backendDownloadChannel.label": "Канал скачивания пакетов расширений LM Studio", + "backendDownloadChannel.value.stable": "Стабильный", + "backendDownloadChannel.value.beta": "Бета", + "backendDownloadChannel.value.latest": "Dev", + "backendDownloadChannel.shortLabel": "Канал скачивания времени выполнения", + "backendDownloadChannel.hint": "Выберите канал, с которого нужно сачивать пакеты расширений LM Studio. \"{{stableName}}\" - рекомендуемый канал для большинства пользователей.", + + "appUpdateChannel.label": "Канал обновлений", + "appUpdateChannel.value.stable": "Стабильный", + "appUpdateChannel.value.beta": "Бета", + "appUpdateChannel.value.alpha": "Альфа", + "appUpdateChannel.shortLabel": "Канал обновлений приложения", + "appUpdateChannel.hint": "Выберите канал, с которого нужно получать обновления для LM Studio. \"{{stableName}}\" - рекомендуемый канал для большинства пользователей.", + + "modelLoadingGuardrails.label": "Ограничители загрузки моделей", + "modelLoadingGuardrails.description": "Загрузка моделей, превышающих лимиты системных ресурсов, может привести к нестабильности системы или зависанию. Ограничители предотвращают случайную перегрузку. При необходимости настройте эти лимиты здесь, но будьте внимательны: загрузка моделей вблизи предела системы может снизить стабильность.", + "modelLoadingGuardrails.value.off": "Отключено (Не рекомендуется)", + "modelLoadingGuardrails.value.off/subTitle": "Отсутствуют меры предосторожности против перегрузки системы", + "modelLoadingGuardrails.value.off/detail": "Детали выключено", + "modelLoadingGuardrails.value.low": "Слабые", + "modelLoadingGuardrails.value.low/subTitle": "Слабые меры предосторожности против перегрузки системы", + "modelLoadingGuardrails.value.low/detail": "Детали смягчены", + "modelLoadingGuardrails.value.medium": "Сбалансированно", + "modelLoadingGuardrails.value.medium/subTitle": "Умеренные меры предосторожности против перегрузки системы", + "modelLoadingGuardrails.value.medium/detail": "Детали сбалансированы", + "modelLoadingGuardrails.value.high": "Сильные", + "modelLoadingGuardrails.value.high/subTitle": "Сильные меры предосторожности против перегрузки системы", + "modelLoadingGuardrails.value.high/detail": "Детали строгие", + "modelLoadingGuardrails.value.custom": "Установить свои", + "modelLoadingGuardrails.value.custom/subTitle": "Установите свой собственный лимит максимального размера загружаемой модели", + "modelLoadingGuardrails.value.custom/detail": "Детали пользовательского режима", + "modelLoadingGuardrails.custom.label": "Лимит памяти: ", + "modelLoadingGuardrails.custom.unitGB": "ГБ", + "modelLoadingGuardrails.custom.description": "Установите пользовательский лимит памяти для загрузки модели. Модели не будут загружаться, если их загрузка превысит этот лимит.", + + "experimentalLoadPresets": "Включить поддержку конфигурации загрузки моделей в предустановках", + "experimentalLoadPresets.description": "Разрешить ли предустановкам включать конфигурации загрузки моделей. Эта функция экспериментальная, и мы приветствуем отзывы.", + + "unloadPreviousJITModelOnLoad": "Автоматическая выгрузка JIT-моделей: гарантировать, что одновременно загружено не более 1 модели через JIT (выгружается предыдущая модель)", + "autoUpdateExtensionPacks": "Автоматическое обновление выбранных пакетов Runtime Extension Packs", + "useHFProxy.label": "Использовать прокси Hugging Face от LM Studio", + "useHFProxy.hint": "Используйте прокси Hugging Face от LM Studio для поиска и загрузки моделей. Это может помочь пользователям, которым трудно получать доступ к Hugging Face напрямую.", + "separateReasoningContentInResponses": "При необходимости разделять `reasoning_content` и `content` в API-ответах", + "separateReasoningContentInResponses/hint": "Эта настройка будет работать только для моделей 'reasoning', таких как DeepSeek R1, его варианты дистилляции и другие модели, которые генерируют CoT в тегах `` и ``.", + + "promptWhenCommittingUnsavedChangesWithNewFields": "Предустановки: Отображать диалоговое окно подтверждения при добавлении новых полей к предустановке", + "promptWhenCommittingUnsavedChangesWithNewFields.description": "Это полезно, если вы хотите предотвратить случайное добавление новых полей в предустановки.", + + "enableLocalService": "Включить службу LLM от LM Studio", + "enableLocalService.subtitle": "Использовать сервер LLM от LM Studio без необходимости держать приложение LM Studio открытым", + "enableLocalService.description": "При включении службы, LLM от LM Studio будет запущен при старте. Закрытие LM Studio также оставит службу LLM запущенной в системной панели задач.", + + "expandConfigsOnClick": "Разворачивать конфигурации по клику вместо наведения курсора", + + "migrateChats": { + "label": "Миграция чатов pre-0.3.0", + "hasBetterLabel": "Повторная миграция чатов до pre-0.3.0", + "action_one": "Мигрировать 1 чат", + "action_other": "Мигрировать {{count}} чатов", + "inProgress": "Миграция чатов...", + "hint": { + "primary": "Мы обновили внутреннюю структуру данных для чатов версии 0.3.0+ для поддержки таких функций, как многоверсионные сообщения в чате. Чтобы старые чаты отображались в приложении, их необходимо мигрировать в новый формат.", + "details": "Процесс миграции НЕ удалит ваши старые чаты, а лишь создаст копию этих чатов в новом формате.", + "footer": "Вы все еще можете получить доступ к своим старым чатам через более ранние версии LM Studio. В настоящее время изображения не будут автоматически мигрированы." + }, + "hasBetterHint": { + "primary": "Мы улучшили миграцию чатов с момента вашей предыдущей миграции. Хотите запустить его снова?", + "details": "Процесс миграции создаст новую папку для хранения недавно мигрированных чатов. Ваши старые чаты останутся нетронутыми.", + "footer": "Вы все еще можете получить доступ к своим старым чатам через более ранние версии LM Studio. В настоящее время изображения не будут автоматически мигрированы." + }, + "success": "Чаты успешно мигрированы!", + "success_one": "Успешно мигрирован 1 чат", + "success_other": "Успешно мигрировано {{count}} чатов", + "showInstructionsButton": "Показать инструкции", + "footerCardText": "Чаты из предыдущих версий LM Studio должны быть мигрированы, чтобы их можно было использовать в этой версии.", + "hasBetterFooterCardText": "Мы улучшили миграцию чатов с момента вашей предыдущей миграции. Можно повторно запустить процесс миграции. (Будет создана новая папка для хранения недавно мигрированных чатов.)", + "dismissConfirm": "Отмена", + "dismissConfirmDescription": "Вы всегда можете обработать миграцию чатов в Настройках." + } } diff --git a/ru/shared.json b/ru/shared.json new file mode 100644 index 00000000..d916b396 --- /dev/null +++ b/ru/shared.json @@ -0,0 +1,38 @@ +{ + "copyLmStudioLinkButton/toolTip": "Копировать ссылку для скачивания модели", + + "filter.noMatches": "Нет результатов", + "longRunningTask": { + "unbundlingDependencies": { + "badge": "Извлечение ресурсов" + }, + "performingBackendHardwareSurvey": { + "badge": "Проверка совместимости с Runtime" + }, + "indexingRuntimes": { + "badge": "Индексация Runtimes" + }, + "indexingModels": { + "badge": "Индексация моделей" + }, + "authenticating": { + "badge": "Аутентификация" + }, + "autoUpdatingExtensionPack": { + "badge": "Обновление пакета расширений ({{name}} v{{version}})" + } + }, + "auth": { + "prompt": "Войти в хаб LM Studio", + "authError": "Не удалось аутентифицироваться", + "noAccount": "Нет учётной записи?", + "signUp": "Зарегистрироваться", + "havingTrouble": "Проблемы?", + "retry": "Повторить" + }, + "artifacts": { + "fetchError": "Не удалось получить артефакты" + }, + "incompatible": "Несовместимо", + "compatible": "Совместимо" +} diff --git a/ru/sidebar.json b/ru/sidebar.json index 4fb76536..ddf8406c 100644 --- a/ru/sidebar.json +++ b/ru/sidebar.json @@ -3,6 +3,7 @@ "discover": "Обзор моделей", "myModels": "Мои модели", "developer": "Разработка", + "runtimes": "Runtime", "settings": "Настройки", "download": "Загрузки" }