1
0
Fork 0
mirror of https://github.com/deepfakes/faceswap synced 2025-06-07 10:43:27 -04:00
faceswap/locales/ru/LC_MESSAGES/plugins.train._config.po
torzdf 6a3b674bef
Rebase code (#1326)
* Remove tensorflow_probability requirement

* setup.py - fix progress bars

* requirements.txt: Remove pre python 3.9 packages

* update apple requirements.txt

* update INSTALL.md

* Remove python<3.9 code

* setup.py - fix Windows Installer

* typing: python3.9 compliant

* Update pytest and readthedocs python versions

* typing fixes

* Python Version updates
  - Reduce max version to 3.10
  - Default to 3.10 in installers
  - Remove incompatible 3.11 tests

* Update dependencies

* Downgrade imageio dep for Windows

* typing: merge optional unions and fixes

* Updates
  - min python version 3.10
  - typing to python 3.10 spec
  - remove pre-tf2.10 code
  - Add conda tests

* train: re-enable optimizer saving

* Update dockerfiles

* Update setup.py
  - Apple Conda deps to setup.py
  - Better Cuda + dependency handling

* bugfix: Patch logging to prevent Autograph errors

* Update dockerfiles

* Setup.py - Setup.py - stdout to utf-8

* Add more OSes to github Actions

* suppress mac-os end to end test
2023-06-27 11:27:47 +01:00

910 lines
60 KiB
Text
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# SOME DESCRIPTIVE TITLE.
# Copyright (C) YEAR THE PACKAGE'S COPYRIGHT HOLDER
# This file is distributed under the same license as the PACKAGE package.
# FIRST AUTHOR <EMAIL@ADDRESS>, YEAR.
#
msgid ""
msgstr ""
"Project-Id-Version: \n"
"Report-Msgid-Bugs-To: \n"
"POT-Creation-Date: 2023-06-25 13:39+0100\n"
"PO-Revision-Date: 2023-06-25 13:42+0100\n"
"Last-Translator: \n"
"Language-Team: \n"
"Language: ru_RU\n"
"MIME-Version: 1.0\n"
"Content-Type: text/plain; charset=UTF-8\n"
"Content-Transfer-Encoding: 8bit\n"
"X-Generator: Poedit 3.3.1\n"
#: plugins/train/_config.py:17
msgid ""
"\n"
"NB: Unless specifically stated, values changed here will only take effect "
"when creating a new model."
msgstr ""
"\n"
"Примечание: До тех пор, пока об этом не сказано, значения, измененные здесь, "
"будут применены при создании новой модели."
#: plugins/train/_config.py:22
msgid ""
"Focal Frequency Loss. Analyzes the frequency spectrum of the images rather "
"than the images themselves. This loss function can be used on its own, but "
"the original paper found increased benefits when using it as a complementary "
"loss to another spacial loss function (e.g. MSE). Ref: Focal Frequency Loss "
"for Image Reconstruction and Synthesis https://arxiv.org/pdf/2012.12821.pdf "
"NB: This loss does not currently work on AMD cards."
msgstr ""
"Потеря фокальной частоты. Анализирует частотный спектр изображений, а не "
"сами изображения. Эта функция потерь может использоваться сама по себе, но в "
"оригинальной статье было обнаружено, что она дает больше преимуществ при "
"использовании в качестве дополнительной потери к другой пространственной "
"функции потерь (например, MSE). Ссылка: Focal Frequency Loss for Image "
"Reconstruction and Synthesis [ТОЛЬКО на английском] https://arxiv.org/"
"pdf/2012.12821.pdf NB: Эта потеря в настоящее время не работает на картах "
"AMD."
#: plugins/train/_config.py:29
msgid ""
"Nvidia FLIP. A perceptual loss measure that approximates the difference "
"perceived by humans as they alternate quickly (or flip) between two images. "
"Used on its own and this loss function creates a distinct grid on the "
"output. However it can be helpful when used as a complimentary loss "
"function. Ref: FLIP: A Difference Evaluator for Alternating Images: https://"
"research.nvidia.com/sites/default/files/node/3260/FLIP_Paper.pdf"
msgstr ""
"Nvidia FLIP. Мера потерь восприятия, которая приближает разницу, "
"воспринимаемую человеком при быстром чередовании (или перелистывании) двух "
"изображений. Используемая сама по себе, эта функция потерь создает на выходе "
"отчетливую сетку. Однако она может быть полезна при использовании в качестве "
"дополнительной функции потерь. Ссылка: FLIP: A Difference Evaluator for "
"Alternating Images [ТОЛЬКО на английском]: https://research.nvidia.com/sites/"
"default/files/node/3260/FLIP_Paper.pdf"
#: plugins/train/_config.py:36
msgid ""
"Gradient Magnitude Similarity Deviation seeks to match the global standard "
"deviation of the pixel to pixel differences between two images. Similar in "
"approach to SSIM. Ref: Gradient Magnitude Similarity Deviation: An Highly "
"Efficient Perceptual Image Quality Index https://arxiv.org/ftp/arxiv/"
"papers/1308/1308.3052.pdf"
msgstr ""
"Отклонение Схожести Магнитуды Градиентов(Gradient Magnitude Similarity "
"Deviation) пытается совместить глобальную стандартную девиацию различий "
"пикселя к пикселю между двумя изображениями. Подход похож на SSIM. Ссылка: "
"Gradient Magnitude Similarity Deviation: An Highly Efficient Perceptual "
"Image Quality Index [ТОЛЬКО на английском] https://arxiv.org/ftp/arxiv/"
"papers/1308/1308.3052.pdf"
#: plugins/train/_config.py:41
msgid ""
"The L_inf norm will reduce the largest individual pixel error in an image. "
"As each largest error is minimized sequentially, the overall error is "
"improved. This loss will be extremely focused on outliers."
msgstr ""
"Норма L_inf уменьшает наибольшую ошибку отдельного пикселя в изображении. По "
"мере последовательной минимизации каждой наибольшей ошибки улучшается общая "
"ошибка. Эта потеря будет чрезвычайно сосредоточена на выбросах."
#: plugins/train/_config.py:45
msgid ""
"Laplacian Pyramid Loss. Attempts to improve results by focussing on edges "
"using Laplacian Pyramids. As this loss function gives priority to edges over "
"other low-frequency information, like color, it should not be used on its "
"own. The original implementation uses this loss as a complimentary function "
"to MSE. Ref: Optimizing the Latent Space of Generative Networks https://"
"arxiv.org/abs/1707.05776"
msgstr ""
"Потеря пирамиды Лапласиана. Пытается улучшить результаты, концентрируясь на "
"краях с помощью пирамид Лапласиана. Поскольку эта функция потерь отдает "
"приоритет краям, а не другой низкочастотной информации, например, цвету, ее "
"не следует использовать самостоятельно. В оригинальной реализации эта потеря "
"используется как дополнительная функция к MSE. Ссылка: Optimizing the Latent "
"Space of Generative Networks [ТОЛЬКО на английском] https://arxiv.org/"
"abs/1707.05776"
#: plugins/train/_config.py:52
msgid ""
"LPIPS is a perceptual loss that uses the feature outputs of other pretrained "
"models as a loss metric. Be aware that this loss function will use more "
"VRAM. Used on its own and this loss will create a distinct moire pattern on "
"the output, however it can be helpful as a complimentary loss function. The "
"output of this function is strong, so depending on your chosen primary loss "
"function, you are unlikely going to want to set the weight above about 25%. "
"Ref: The Unreasonable Effectiveness of Deep Features as a Perceptual Metric "
"http://arxiv.org/abs/1801.03924\n"
"This variant uses the AlexNet backbone. A fairly light and old model which "
"performed best in the paper's original implementation.\n"
"NB: For AMD Users the final linear layer is not implemented."
msgstr ""
"LPIPS - это перцептивная потеря, которая использует в качестве метрики "
"потерь выходные характеристики других предварительно обученных моделей. "
"Имейте в виду, что эта функция потерь использует больше VRAM. При "
"самостоятельном использовании эта потеря создает на выходе отчетливый "
"муаровый рисунок, однако она может быть полезна как дополнительная функция "
"потерь. Вывод этой функции является сильным, поэтому, в зависимости от "
"выбранной вами основной функции потерь, вы вряд ли захотите устанавливать "
"вес выше 25%. Ссылка: The Unreasonable Effectiveness of Deep Features as a "
"Perceptual Metric [ТОЛЬКО на английском] http://arxiv.org/abs/1801.03924.\n"
"Этот вариант использует основу AlexNet. Это довольно легкая и старая модель, "
"которая лучше всего показала себя в оригинальной реализации.\n"
"NB: Для пользователей AMD последний линейный слой не реализован."
#: plugins/train/_config.py:62
msgid ""
"Same as lpips_alex, but using the SqueezeNet backbone. A more lightweight "
"version of AlexNet.\n"
"NB: For AMD Users the final linear layer is not implemented."
msgstr ""
"То же, что и lpips_alex, но использует основу SqueezeNet. Более облегченная "
"версия AlexNet.\n"
"NB: Для пользователей AMD последний линейный слой не реализован."
#: plugins/train/_config.py:65
msgid ""
"Same as lpips_alex, but using the VGG16 backbone. A more heavyweight model.\n"
"NB: For AMD Users the final linear layer is not implemented."
msgstr ""
"То же, что и lpips_alex, но использует основу VGG16. Более тяжелая модель.\n"
"NB: Для пользователей AMD последний линейный слой не реализован."
#: plugins/train/_config.py:68
msgid ""
"log(cosh(x)) acts similar to MSE for small errors and to MAE for large "
"errors. Like MSE, it is very stable and prevents overshoots when errors are "
"near zero. Like MAE, it is robust to outliers."
msgstr ""
"log(cosh(x)) действует аналогично MSE для малых ошибок и MAE для больших "
"ошибок. Как и MSE, он очень стабилен и предотвращает переборы, когда ошибки "
"близки к нулю. Как и MAE, он устойчив к выбросам."
#: plugins/train/_config.py:72
msgid ""
"Mean absolute error will guide reconstructions of each pixel towards its "
"median value in the training dataset. Robust to outliers but as a median, it "
"can potentially ignore some infrequent image types in the dataset."
msgstr ""
"Средняя абсолютная погрешность направляет реконструкцию каждого пикселя к "
"его медианному значению в обучающем наборе данных. Устойчив к выбросам, но в "
"качестве медианы может игнорировать некоторые редкие типы изображений в "
"наборе данных."
#: plugins/train/_config.py:76
msgid ""
"Mean squared error will guide reconstructions of each pixel towards its "
"average value in the training dataset. As an avg, it will be susceptible to "
"outliers and typically produces slightly blurrier results. Ref: Multi-Scale "
"Structural Similarity for Image Quality Assessment https://www.cns.nyu.edu/"
"pub/eero/wang03b.pdf"
msgstr ""
"Средняя квадратичная погрешность направляет реконструкцию каждого пикселя к "
"его среднему значению в наборе данных для обучения. Как среднее значение, "
"оно будет чувствительно к выбросам и обычно дает немного более размытые "
"результаты. Ссылка: Multi-Scale Structural Similarity for Image Quality "
"Assessment [ТОЛЬКО на английском]https://www.cns.nyu.edu/pub/eero/wang03b.pdf"
#: plugins/train/_config.py:81
msgid ""
"Multiscale Structural Similarity Index Metric is similar to SSIM except that "
"it performs the calculations along multiple scales of the input image."
msgstr ""
"Метрика Индекса Многомасштабного Структурного Сходства (Multiscale "
"Structural Similarity Index Metric) похожа на SSIM, за исключением того, что "
"она выполняет вычисления по нескольким масштабам входного изображения."
#: plugins/train/_config.py:84
msgid ""
"Smooth_L1 is a modification of the MAE loss to correct two of its "
"disadvantages. This loss has improved stability and guidance for small "
"errors. Ref: A General and Adaptive Robust Loss Function https://arxiv.org/"
"pdf/1701.03077.pdf"
msgstr ""
"Smooth_L1 - это модификация потери MAE для исправления двух ее недостатков. "
"Эта потеря улучшает стабильность и ориентирование при небольших "
"погрешностях. Ссылка: A General and Adaptive Robust Loss Function [ТОЛЬКО на "
"английском] https://arxiv.org/pdf/1701.03077.pdf"
#: plugins/train/_config.py:88
msgid ""
"Structural Similarity Index Metric is a perception-based loss that considers "
"changes in texture, luminance, contrast, and local spatial statistics of an "
"image. Potentially delivers more realistic looking images. Ref: Image "
"Quality Assessment: From Error Visibility to Structural Similarity http://"
"www.cns.nyu.edu/pub/eero/wang03-reprint.pdf"
msgstr ""
"Метрика индекса структурного сходства ('Structural Similarity Index Metric') "
"- это основанная на восприятии потеря, которая учитывает изменения в "
"текстуре, яркости, контрасте и локальной пространственной статистике "
"изображения. Потенциально обеспечивает более реалистичный вид изображений. "
"Ссылка: Image Quality Assessment: From Error Visibility to Structural "
"Similarity [ТОЛЬКО на английском] http://www.cns.nyu.edu/pub/eero/wang03-"
"reprint.pdf"
#: plugins/train/_config.py:93
msgid ""
"Instead of minimizing the difference between the absolute value of each "
"pixel in two reference images, compute the pixel to pixel spatial difference "
"in each image and then minimize that difference between two images. Allows "
"for large color shifts, but maintains the structure of the image."
msgstr ""
"Вместо того чтобы минимизировать разницу между абсолютным значением каждого "
"пикселя в двух образцовых изображениях, вычислить пространственную разницу "
"между пикселями в каждом изображении и затем минимизировать эту разницу "
"между двумя изображениями. Это позволяет получить большие цветовые сдвиги, "
"но сохраняет структуру изображения."
#: plugins/train/_config.py:97
msgid "Do not use an additional loss function."
msgstr "Не использовать функцию дополнительных потерь."
#: plugins/train/_config.py:117
msgid "Options that apply to all models"
msgstr "Настройки, применимые ко всем моделям"
#: plugins/train/_config.py:126 plugins/train/_config.py:150
msgid "face"
msgstr "лицо"
#: plugins/train/_config.py:128
msgid ""
"How to center the training image. The extracted images are centered on the "
"middle of the skull based on the face's estimated pose. A subsection of "
"these images are used for training. The centering used dictates how this "
"subsection will be cropped from the aligned images.\n"
"\tface: Centers the training image on the center of the face, adjusting for "
"pitch and yaw.\n"
"\thead: Centers the training image on the center of the head, adjusting for "
"pitch and yaw. NB: You should only select head centering if you intend to "
"include the full head (including hair) in the final swap. This may give "
"mixed results. Additionally, it is only worth choosing head centering if you "
"are training with a mask that includes the hair (e.g. BiSeNet-FP-Head).\n"
"\tlegacy: The 'original' extraction technique. Centers the training image "
"near the tip of the nose with no adjustment. Can result in the edges of the "
"face appearing outside of the training area."
msgstr ""
"Как централизовывать тренировочное изображение. Центр в извлеченных "
"изображениях находится в середине черепа, основанный на примерной позе лица. "
"Подсекция этих изображений используется для тренировки. Используемый центр "
"диктует то, как эта подсекция будет обрезана из выравненных изображений.\n"
"\tface: Центрирует учебное изображение по центру лица, регулируя угол "
"наклона и поворота.\n"
"\thead: Централизует тренировочное изображение в центре головы, регулируя "
"угол наклона и поворота. Примечание: Следует выбирать централизацию головы, "
"если вы планируете включать голову полностью (включая волосы) в финальную "
"замену. Может дать смешанные результаты. В дополнении, оно стоит того только "
"если вы тренируете с маской, что включает в себя волосы (к примеру: BiSeNet-"
"FP-Head).\n"
"\tlegacy: 'оригинальная' техника извлечения. Централизует тренировочное "
"изображение ближе к кончику носа без правок. Может привести к тому, что края "
"лица будут вне тренировочной зоны."
#: plugins/train/_config.py:152
msgid ""
"How much of the extracted image to train on. A lower coverage will limit the "
"model's scope to a zoomed-in central area while higher amounts can include "
"the entire face. A trade-off exists between lower amounts given more detail "
"versus higher amounts avoiding noticeable swap transitions. For 'Face' "
"centering you will want to leave this above 75%. For Head centering you will "
"most likely want to set this to 100%. Sensible values for 'Legacy' centering "
"are:\n"
"\t62.5% spans from eyebrow to eyebrow.\n"
"\t75.0% spans from temple to temple.\n"
"\t87.5% spans from ear to ear.\n"
"\t100.0% is a mugshot."
msgstr ""
"Сколько извлеченного изображения тренировать. Низкая покрытость ограничит "
"прицел модели к приближенной центральной зоне, в то время как большие "
"значения могут включать в себя целое лицо. Существует компромисс между "
"меньшими объемами, дающими больше деталей, и большими объемами, позволяющими "
"избежать заметных переходов замены. Для централизации 'Face', вам нужно "
"будет оставить значение выше 75%. Для централизации 'Head', вам скорее всего "
"нужно будет поставить значение 100%. Адекватные значения для 'Legacy':\n"
"\t62.5% охватывает от бровей до бровей.\n"
"\t75% охватывает от виска до виска.\n"
"\t87.5% охватывает от уха до уха.\n"
"\t100% - полный снимок."
#: plugins/train/_config.py:168 plugins/train/_config.py:179
msgid "initialization"
msgstr "инициализация"
#: plugins/train/_config.py:170
msgid ""
"Use ICNR to tile the default initializer in a repeating pattern. This "
"strategy is designed for pairing with sub-pixel / pixel shuffler to reduce "
"the 'checkerboard effect' in image reconstruction. \n"
"\t https://arxiv.org/ftp/arxiv/papers/1707/1707.02937.pdf"
msgstr ""
"Использовать ICNR для чередования инициализатора по умолчанию в "
"повторяющемся шаблоне. Эта стратегия предназначена для использования в паре "
"с субпиксельным/пиксельным перетасовщиком для уменьшения \"эффекта шахматной "
"доски\" при реконструкции изображения. \n"
"\t [ТОЛЬКО на английском] https://arxiv.org/ftp/arxiv/papers/1707/1707.02937."
"pdf"
#: plugins/train/_config.py:181
msgid ""
"Use Convolution Aware Initialization for convolutional layers. This can help "
"eradicate the vanishing and exploding gradient problem as well as lead to "
"higher accuracy, lower loss and faster convergence.\n"
"NB:\n"
"\t This can use more VRAM when creating a new model so you may want to lower "
"the batch size for the first run. The batch size can be raised again when "
"reloading the model. \n"
"\t Multi-GPU is not supported for this option, so you should start the model "
"on a single GPU. Once training has started, you can stop training, enable "
"multi-GPU and resume.\n"
"\t Building the model will likely take several minutes as the calculations "
"for this initialization technique are expensive. This will only impact "
"starting a new model."
msgstr ""
"Использовать инициализацию с учетом свертки для сверточных слоев. Это "
"поможет устранить проблему исчезающего и взрывающегося градиента, а также "
"повысить точность, снизить потери и ускорить сходимость.\n"
"Примечание:\n"
"\tПри создании новой модели может потребоваться больше видеопамяти, поэтому "
"для первого запуска лучше уменьшить размер пачки. Размер пачки может быть "
"увеличен при перезагрузке модели. \n"
"\tИспользование нескольких видеокарт не поддерживается, поэтому модель "
"следует запускать на одной видеокарте. После начала обучения вы можете "
"остановить обучение, включить несколько видеокарт и возобновить его.\n"
"\t Построение модели, скорее всего, займет несколько минут, поскольку "
"вычисления для этой техники инициализации являются дорогостоящими. Это "
"повлияет только на запуск новой модели."
#: plugins/train/_config.py:198 plugins/train/_config.py:223
#: plugins/train/_config.py:238 plugins/train/_config.py:256
#: plugins/train/_config.py:290
msgid "optimizer"
msgstr "оптимизатор"
#: plugins/train/_config.py:202
msgid ""
"The optimizer to use.\n"
"\t adabelief - Adapting Stepsizes by the Belief in Observed Gradients. An "
"optimizer with the aim to converge faster, generalize better and remain more "
"stable. (https://arxiv.org/abs/2010.07468). NB: Epsilon for AdaBelief needs "
"to be set to a smaller value than other Optimizers. Generally setting the "
"'Epsilon Exponent' to around '-16' should work.\n"
"\t adam - Adaptive Moment Optimization. A stochastic gradient descent method "
"that is based on adaptive estimation of first-order and second-order "
"moments.\n"
"\t nadam - Adaptive Moment Optimization with Nesterov Momentum. Much like "
"Adam but uses a different formula for calculating momentum.\n"
"\t rms-prop - Root Mean Square Propagation. Maintains a moving (discounted) "
"average of the square of the gradients. Divides the gradient by the root of "
"this average."
msgstr ""
"Используемый оптимизатор.\n"
"\t adabelief - Адаптация размеров шагов по убеждению в наблюдаемых "
"градиентах('Adapting Stepsizes by the Belief in Observed Gradients'). "
"Оптимизатор, цель которого - быстрее сходиться, лучше обобщаться и "
"оставаться более стабильным. ([ТОЛЬКО на английском] https://arxiv.org/"
"abs/2010.07468). Примечание: значение Epsilon для AdaBelief должно быть "
"меньше, чем для других оптимизаторов. Как правило, значение 'Epsilon "
"Exponent' должно быть около '-16'.\n"
"\t adam - Адаптивная оптимизация моментов('Adaptive Moment Optimization'). "
"Стохастический метод градиентного спуска, основанный на адаптивной оценке "
"моментов первого и второго порядка.\n"
"\t nadam - Адаптивная оптимизация моментов с моментумом Нестерова ('Adaptive "
"Moment Optimization with Nesterov Momentum'). Похож на Adam, но использует "
"другую формулу для вычисления момента.\n"
"rms-prop - Распространение корневого среднего квадрата ('Root Mean Square "
"Propagation'). Поддерживает скользящее (дисконтированное) среднее квадрата "
"градиентов. Делит градиент на корень из этого среднего."
#: plugins/train/_config.py:225
msgid ""
"Learning rate - how fast your network will learn (how large are the "
"modifications to the model weights after one batch of training). Values that "
"are too large might result in model crashes and the inability of the model "
"to find the best solution. Values that are too small might be unable to "
"escape from dead-ends and find the best global minimum."
msgstr ""
"Скорость обучения - насколько быстро ваша модель будет обучаться (насколько "
"огромны изменения весов модели после одной пачки тренировки). Слишком "
"большие значения могут привести к крахам модели и невозможности модели найти "
"лучшее решение. Слишком маленькие значения могут привести к невозможности "
"выбраться из тупиков и найти лучший глобальный минимум."
#: plugins/train/_config.py:240
msgid ""
"The epsilon adds a small constant to weight updates to attempt to avoid "
"'divide by zero' errors. Unless you are using the AdaBelief Optimizer, then "
"Generally this option should be left at default value, For AdaBelief, "
"setting this to around '-16' should work.\n"
"In all instances if you are getting 'NaN' loss values, and have been unable "
"to resolve the issue any other way (for example, increasing batch size, or "
"lowering learning rate), then raising the epsilon can lead to a more stable "
"model. It may, however, come at the cost of slower training and a less "
"accurate final result.\n"
"NB: The value given here is the 'exponent' to the epsilon. For example, "
"choosing '-7' will set the epsilon to 1e-7. Choosing '-3' will set the "
"epsilon to 0.001 (1e-3)."
msgstr ""
"Эпсилон добавляет небольшую константу к обновлениям веса, чтобы попытаться "
"избежать ошибок \"деления на ноль\". Если вы не используете оптимизатор "
"AdaBelief, то, как правило, этот параметр следует оставить по умолчанию. Для "
"AdaBelief подойдет значение около '-16'.\n"
"Во всех случаях, если вы получаете значения потерь 'NaN' и не смогли решить "
"проблему другим способом (например, увеличив размер пачки или уменьшив "
"скорость обучения), то увеличение эпсилона может привести к более стабильной "
"модели. Однако это может стоить более медленного обучения и менее точного "
"конечного результата.\n"
"Примечание: Значение, указанное здесь, является \"экспонентой\" к эпсилону. "
"Например, при выборе значения '-7' эпсилон будет равен 1e-7. При выборе "
"значения \"-3\" эпсилон будет равен 0,001 (1e-3)."
#: plugins/train/_config.py:262
msgid ""
"When to save the Optimizer Weights. Saving the optimizer weights is not "
"necessary and will increase the model file size 3x (and by extension the "
"amount of time it takes to save the model). However, it can be useful to "
"save these weights if you want to guarantee that a resumed model carries off "
"exactly from where it left off, rather than spending a few hundred "
"iterations catching up.\n"
"\t never - Don't save optimizer weights.\n"
"\t always - Save the optimizer weights at every save iteration. Model saving "
"will take longer, due to the increased file size, but you will always have "
"the last saved optimizer state in your model file.\n"
"\t exit - Only save the optimizer weights when explicitly terminating a "
"model. This can be when the model is actively stopped or when the target "
"iterations are met. Note: If the training session ends because of another "
"reason (e.g. power outage, Out of Memory Error, NaN detected) then the "
"optimizer weights will NOT be saved."
msgstr ""
"Когда сохранять веса оптимизатора. Сохранение весов оптимизатора не является "
"необходимым и увеличит размер файла модели в 3 раза (и соответственно время, "
"необходимое для сохранения модели). Однако может быть полезно сохранить эти "
"веса, если вы хотите гарантировать, что возобновленная модель продолжит "
"работу именно с того места, где она остановилась, а не тратит несколько "
"сотен итераций на догонялки.\n"
"\t never - не сохранять веса оптимизатора.\n"
"\t always - сохранять веса оптимизатора при каждой итерации сохранения. "
"Сохранение модели займет больше времени из-за увеличенного размера файла, но "
"в файле модели всегда будет последнее сохраненное состояние оптимизатора.\n"
"\t exit - сохранять веса оптимизатора только при явном завершении модели. "
"Это может быть, когда модель активно останавливается или когда выполняются "
"целевые итерации. Примечание. Если сеанс обучения завершается по другой "
"причине (например, отключение питания, ошибка нехватки памяти, обнаружение "
"NaN), веса оптимизатора НЕ будут сохранены."
#: plugins/train/_config.py:283
msgid ""
"Apply AutoClipping to the gradients. AutoClip analyzes the gradient weights "
"and adjusts the normalization value dynamically to fit the data. Can help "
"prevent NaNs and improve model optimization at the expense of VRAM. Ref: "
"AutoClip: Adaptive Gradient Clipping for Source Separation Networks https://"
"arxiv.org/abs/2007.14469"
msgstr ""
"Применить AutoClipping к градиентам. AutoClip анализирует веса градиентов и "
"динамически корректирует значение нормализации, чтобы оно подходило к "
"данным. Может помочь избежать NaN('не число') и улучшить оптимизацию модели "
"ценой видеопамяти. Ссылка: AutoClip: Adaptive Gradient Clipping for Source "
"Separation Networks [ТОЛЬКО на английском] https://arxiv.org/abs/2007.14469"
#: plugins/train/_config.py:296 plugins/train/_config.py:308
#: plugins/train/_config.py:322 plugins/train/_config.py:339
msgid "network"
msgstr "сеть"
#: plugins/train/_config.py:298
msgid ""
"Use reflection padding rather than zero padding with convolutions. Each "
"convolution must pad the image boundaries to maintain the proper sizing. "
"More complex padding schemes can reduce artifacts at the border of the "
"image.\n"
"\t http://www-cs.engr.ccny.cuny.edu/~wolberg/cs470/hw/hw2_pad.txt"
msgstr ""
"Используйте для сверток не нулевую, а отражающую подкладку. Каждая свертка "
"должна заполнять границы изображения для поддержания правильного размера. "
"Более сложные схемы вставки могут уменьшить артефакты на границе "
"изображения.\n"
"\t http://www-cs.engr.ccny.cuny.edu/~wolberg/cs470/hw/hw2_pad.txt"
#: plugins/train/_config.py:311
msgid ""
"Enable the Tensorflow GPU 'allow_growth' configuration option. This option "
"prevents Tensorflow from allocating all of the GPU VRAM at launch but can "
"lead to higher VRAM fragmentation and slower performance. Should only be "
"enabled if you are receiving errors regarding 'cuDNN fails to initialize' "
"when commencing training."
msgstr ""
"[Только для Nvidia]. Включите опцию конфигурации Tensorflow GPU "
"`allow_growth`. Эта опция не позволяет Tensorflow выделять всю видеопамять "
"видеокарты при запуске, но может привести к повышенной фрагментации "
"видеопамяти и снижению производительности. Следует включать только в том "
"случае, если у вас появляются ошибки, рода 'cuDNN fails to initialize'(cuDNN "
"не может инициализироваться) при начале тренировки."
#: plugins/train/_config.py:324
msgid ""
"NVIDIA GPUs can run operations in float16 faster than in float32. Mixed "
"precision allows you to use a mix of float16 with float32, to get the "
"performance benefits from float16 and the numeric stability benefits from "
"float32.\n"
"\n"
"This is untested on DirectML backend, but will run on most Nvidia models. it "
"will only speed up training on more recent GPUs. Those with compute "
"capability 7.0 or higher will see the greatest performance benefit from "
"mixed precision because they have Tensor Cores. Older GPUs offer no math "
"performance benefit for using mixed precision, however memory and bandwidth "
"savings can enable some speedups. Generally RTX GPUs and later will offer "
"the most benefit."
msgstr ""
"Видеокарты от NVIDIA могут оперировать в 'float16' быстрее, чем в 'float32'. "
"Смешанная точность позволяет вам использовать микс float16 с float32, чтобы "
"получить улучшение производительности от float16 и числовую стабильность от "
"float32.\n"
"\n"
"Это не было проверено на DirectML, но будет работать на большенстве моделей "
"Nvidia. Оно только ускорит тренировку на более недавних видеокартах. Те, что "
"имеют возможность вычислений('Compute Capability') 7.0 и выше, получат самое "
"большое ускорение от смешанной точности, потому что у них имеются тензор "
"ядра. Старые видеокарты предлагают никакого ускорения от смешанной точности, "
"однако экономия памяти и (хз, честно, словаря нет) могут дать небольшое "
"ускорение. В основном RTX видеокарты и позже предлагают самое большое "
"ускорение."
#: plugins/train/_config.py:341
msgid ""
"If a 'NaN' is generated in the model, this means that the model has "
"corrupted and the model is likely to start deteriorating from this point on. "
"Enabling NaN protection will stop training immediately in the event of a "
"NaN. The last save will not contain the NaN, so you may still be able to "
"rescue your model."
msgstr ""
"Если 'Не число'(далее, NaN) сгенерировано в модели - это значит, что модель "
"повреждена и с этого момента, скорее всего, начнет деградировать. Включение "
"защиты от NaN немедленно остановит тренировку, в случае, если был обнаружен "
"NaN. Последнее сохранение не будет содержать в себе NaN, так что у вас будет "
"возможность спасти вашу модель."
#: plugins/train/_config.py:354
msgid "convert"
msgstr "конвертирование"
#: plugins/train/_config.py:356
msgid ""
"[GPU Only]. The number of faces to feed through the model at once when "
"running the Convert process.\n"
"\n"
"NB: Increasing this figure is unlikely to improve convert speed, however, if "
"you are getting Out of Memory errors, then you may want to reduce the batch "
"size."
msgstr ""
"[Только для видеокарт] Количество лиц, проходящих через модель в одно время "
"во время конвертирования\n"
"\n"
"Примечание: Увеличение этого значения вряд ли повлечет за собой ускорение "
"конвертирования, однако, если у вас появляются ошибки 'Out of Memory', тогда "
"стоит снизить размер пачки."
#: plugins/train/_config.py:375
msgid ""
"Loss configuration options\n"
"Loss is the mechanism by which a Neural Network judges how well it thinks "
"that it is recreating a face."
msgstr ""
"Настройки потерь\n"
"Потеря - механизм, по которому Нейронная Сеть судит, насколько хорошо она "
"воспроизводит лицо."
#: plugins/train/_config.py:382 plugins/train/_config.py:394
#: plugins/train/_config.py:407 plugins/train/_config.py:427
#: plugins/train/_config.py:439 plugins/train/_config.py:459
#: plugins/train/_config.py:471 plugins/train/_config.py:491
#: plugins/train/_config.py:507 plugins/train/_config.py:523
#: plugins/train/_config.py:540
msgid "loss"
msgstr "потери"
#: plugins/train/_config.py:386
msgid "The loss function to use."
msgstr "Какую функцию потерь стоит использовать."
#: plugins/train/_config.py:398
msgid ""
"The second loss function to use. If using a structural based loss (such as "
"SSIM, MS-SSIM or GMSD) it is common to add an L1 regularization(MAE) or L2 "
"regularization (MSE) function. You can adjust the weighting of this loss "
"function with the loss_weight_2 option."
msgstr ""
"Вторая используемая функция потерь. При использовании потерь, основанных на "
"структуре (таких как SSIM, MS-SSIM или GMSD), обычно добавляется функция "
"регуляризации L1 (MAE) или регуляризации L2 (MSE). Вы можете настроить вес "
"этой функции потерь с помощью параметра loss_weight_2."
#: plugins/train/_config.py:413
msgid ""
"The amount of weight to apply to the second loss function.\n"
"\n"
"\n"
"\n"
"The value given here is as a percentage denoting how much the selected "
"function should contribute to the overall loss cost of the model. For "
"example:\n"
"\t 100 - The loss calculated for the second loss function will be applied at "
"its full amount towards the overall loss score. \n"
"\t 25 - The loss calculated for the second loss function will be reduced by "
"a quarter prior to adding to the overall loss score. \n"
"\t 400 - The loss calculated for the second loss function will be mulitplied "
"4 times prior to adding to the overall loss score. \n"
"\t 0 - Disables the second loss function altogether."
msgstr ""
"Величина веса, применяемая ко второй функции потерь.\n"
"\n"
"\n"
"\n"
"Значение задается в процентах и показывает, какой вклад выбранная функция "
"должна внести в общую стоимость потерь модели. Например:\n"
"\t 100 - Потери, рассчитанные для четвертой функции потерь, будут применены "
"в полном объеме к общей стоимости потерь. \n"
"\t25 - Потери, рассчитанные для четвертой функции потерь, будут уменьшены на "
"четверть перед добавлением к общей стоимости потерь. \n"
"\t400 - Потери, рассчитанные для четвертой функции потерь, будут умножены в "
"4 раза перед добавлением к общей оценке потерь. \n"
"\t 0 - Полностью отключает четвертую функцию потерь."
#: plugins/train/_config.py:431
msgid ""
"The third loss function to use. You can adjust the weighting of this loss "
"function with the loss_weight_3 option."
msgstr ""
"Третья используемая функция потерь. Вы можете настроить вес этой функции "
"потерь с помощью параметра loss_weight_3."
#: plugins/train/_config.py:445
msgid ""
"The amount of weight to apply to the third loss function.\n"
"\n"
"\n"
"\n"
"The value given here is as a percentage denoting how much the selected "
"function should contribute to the overall loss cost of the model. For "
"example:\n"
"\t 100 - The loss calculated for the third loss function will be applied at "
"its full amount towards the overall loss score. \n"
"\t 25 - The loss calculated for the third loss function will be reduced by a "
"quarter prior to adding to the overall loss score. \n"
"\t 400 - The loss calculated for the third loss function will be mulitplied "
"4 times prior to adding to the overall loss score. \n"
"\t 0 - Disables the third loss function altogether."
msgstr ""
"Величина веса, применяемая к третьей функции потерь.\n"
"\n"
"\n"
"\n"
"Значение задается в процентах и показывает, какой вклад выбранная функция "
"должна внести в общую стоимость потерь модели. Например:\n"
"\t 100 - Потери, рассчитанные для четвертой функции потерь, будут применены "
"в полном объеме к общей стоимости потерь. \n"
"\t25 - Потери, рассчитанные для четвертой функции потерь, будут уменьшены на "
"четверть перед добавлением к общей стоимости потерь. \n"
"\t400 - Потери, рассчитанные для четвертой функции потерь, будут умножены в "
"4 раза перед добавлением к общей оценке потерь. \n"
"\t 0 - Полностью отключает четвертую функцию потерь."
#: plugins/train/_config.py:463
msgid ""
"The fourth loss function to use. You can adjust the weighting of this loss "
"function with the loss_weight_3 option."
msgstr ""
"Четвертая используемая функция потерь. Вы можете настроить вес этой функции "
"потерь с помощью параметра 'loss_weight_4'."
#: plugins/train/_config.py:477
msgid ""
"The amount of weight to apply to the fourth loss function.\n"
"\n"
"\n"
"\n"
"The value given here is as a percentage denoting how much the selected "
"function should contribute to the overall loss cost of the model. For "
"example:\n"
"\t 100 - The loss calculated for the fourth loss function will be applied at "
"its full amount towards the overall loss score. \n"
"\t 25 - The loss calculated for the fourth loss function will be reduced by "
"a quarter prior to adding to the overall loss score. \n"
"\t 400 - The loss calculated for the fourth loss function will be mulitplied "
"4 times prior to adding to the overall loss score. \n"
"\t 0 - Disables the fourth loss function altogether."
msgstr ""
"Величина веса, применяемая к четвертой функции потерь.\n"
"\n"
"\n"
"\n"
"Значение задается в процентах и показывает, какой вклад выбранная функция "
"должна внести в общую стоимость потерь модели. Например:\n"
"\t 100 - Потери, рассчитанные для четвертой функции потерь, будут применены "
"в полном объеме к общей стоимости потерь. \n"
"\t25 - Потери, рассчитанные для четвертой функции потерь, будут уменьшены на "
"четверть перед добавлением к общей стоимости потерь. \n"
"\t400 - Потери, рассчитанные для четвертой функции потерь, будут умножены в "
"4 раза перед добавлением к общей оценке потерь. \n"
"\t 0 - Полностью отключает четвертую функцию потерь."
#: plugins/train/_config.py:496
msgid ""
"The loss function to use when learning a mask.\n"
"\t MAE - Mean absolute error will guide reconstructions of each pixel "
"towards its median value in the training dataset. Robust to outliers but as "
"a median, it can potentially ignore some infrequent image types in the "
"dataset.\n"
"\t MSE - Mean squared error will guide reconstructions of each pixel towards "
"its average value in the training dataset. As an average, it will be "
"susceptible to outliers and typically produces slightly blurrier results."
msgstr ""
"Функция потерь, используемая при обучении маски.\n"
"\tMAE - средняя абсолютная погрешность('Mean absolute error') направляет "
"реконструкцию каждого пикселя к его срединному значению в обучающем наборе "
"данных. Устойчива к выбросам, но как медиана может игнорировать некоторые "
"редкие типы изображений в наборе данных.\n"
"\tMSE - средняя квадратичная погрешность('Mean squared error') направляет "
"реконструкцию каждого пикселя к его срединному значению в обучающем наборе "
"данных. Как среднее значение, оно чувствительно к выбросам и обычно дает "
"немного более размытые результаты."
#: plugins/train/_config.py:513
msgid ""
"The amount of priority to give to the eyes.\n"
"\n"
"The value given here is as a multiplier of the main loss score. For "
"example:\n"
"\t 1 - The eyes will receive the same priority as the rest of the face. \n"
"\t 10 - The eyes will be given a score 10 times higher than the rest of the "
"face.\n"
"\n"
"NB: Penalized Mask Loss must be enable to use this option."
msgstr ""
"Величина приоритета, которую следует придать глазам.\n"
"\n"
"Значение дается как множитель основного показателя потерь. Например:\n"
"\t 1 - Глаза получат тот же приоритет, что и остальное лицо. \n"
"\t 10 - глаза получат оценку в 10 раз выше, чем остальные части лица.\n"
"\n"
"NB: Penalized Mask Loss должен быть включен, чтобы использовать эту опцию."
#: plugins/train/_config.py:529
msgid ""
"The amount of priority to give to the mouth.\n"
"\n"
"The value given here is as a multiplier of the main loss score. For "
"Example:\n"
"\t 1 - The mouth will receive the same priority as the rest of the face. \n"
"\t 10 - The mouth will be given a score 10 times higher than the rest of the "
"face.\n"
"\n"
"NB: Penalized Mask Loss must be enable to use this option."
msgstr ""
"Величина приоритета, которую следует придать рту.\n"
"\n"
"Значение дается как множитель основного показателя потерь. Например:\n"
"\t 1 - Рот получит тот же приоритет, что и остальное лицо. \n"
"\t 10 - Рот получит оценку в 10 раз выше, чем остальные части лица.\n"
"\n"
"NB: Penalized Mask Loss должен быть включен, чтобы использовать эту опцию."
#: plugins/train/_config.py:542
msgid ""
"Image loss function is weighted by mask presence. For areas of the image "
"without the facial mask, reconstruction errors will be ignored while the "
"masked face area is prioritized. May increase overall quality by focusing "
"attention on the core face area."
msgstr ""
"Функция потерь изображения взвешивается по наличию маски. Для областей "
"изображения без маски лица погрешности реконструкции игнорируются, в то "
"время как область лица с маской является приоритетной. Может повысить общее "
"качество за счет концентрации внимания на основной области лица."
#: plugins/train/_config.py:553 plugins/train/_config.py:595
#: plugins/train/_config.py:609 plugins/train/_config.py:618
msgid "mask"
msgstr "маска"
#: plugins/train/_config.py:556
msgid ""
"The mask to be used for training. If you have selected 'Learn Mask' or "
"'Penalized Mask Loss' you must select a value other than 'none'. The "
"required mask should have been selected as part of the Extract process. If "
"it does not exist in the alignments file then it will be generated prior to "
"training commencing.\n"
"\tnone: Don't use a mask.\n"
"\tbisenet-fp_face: Relatively lightweight NN based mask that provides more "
"refined control over the area to be masked (configurable in mask settings). "
"Use this version of bisenet-fp if your model is trained with 'face' or "
"'legacy' centering.\n"
"\tbisenet-fp_head: Relatively lightweight NN based mask that provides more "
"refined control over the area to be masked (configurable in mask settings). "
"Use this version of bisenet-fp if your model is trained with 'head' "
"centering.\n"
"\tcomponents: Mask designed to provide facial segmentation based on the "
"positioning of landmark locations. A convex hull is constructed around the "
"exterior of the landmarks to create a mask.\n"
"\tcustom_face: Custom user created, face centered mask.\n"
"\tcustom_head: Custom user created, head centered mask.\n"
"\textended: Mask designed to provide facial segmentation based on the "
"positioning of landmark locations. A convex hull is constructed around the "
"exterior of the landmarks and the mask is extended upwards onto the "
"forehead.\n"
"\tvgg-clear: Mask designed to provide smart segmentation of mostly frontal "
"faces clear of obstructions. Profile faces and obstructions may result in "
"sub-par performance.\n"
"\tvgg-obstructed: Mask designed to provide smart segmentation of mostly "
"frontal faces. The mask model has been specifically trained to recognize "
"some facial obstructions (hands and eyeglasses). Profile faces may result in "
"sub-par performance.\n"
"\tunet-dfl: Mask designed to provide smart segmentation of mostly frontal "
"faces. The mask model has been trained by community members and will need "
"testing for further description. Profile faces may result in sub-par "
"performance."
msgstr ""
"Маска, которая будет использоваться для обучения. Если вы выбрали 'Learn "
"Mask' или 'Penalized Mask Loss', вы должны выбрать значение, отличное от "
"'none'. Необходимая маска должна быть выбрана в процессе извлечения. Если "
"она не существует в файле выравниваний, то она будет создана до начала "
"обучения.\n"
"\tnone: Не использовать маску.\n"
"\tbisenet-fp_face: Относительно легкая маска на основе NN, которая "
"обеспечивает более точный контроль над маскируемой областью (настраивается в "
"настройках маски). Используйте эту версию bisenet-fp, если ваша модель "
"обучена с центрированием 'face' или 'legacy'.\n"
"\tbisenet-fp_head: Относительно легкая маска на основе NN, которая "
"обеспечивает более точный контроль над маскируемой областью (настраивается в "
"параметрах маски). Используйте эту версию bisenet-fp, если ваша модель "
"обучена с центрированием 'head'.\n"
"\tcomponents: Маска, разработанная для сегментации лица на основе "
"расположения ориентиров. Для создания маски вокруг внешних ориентиров "
"строится выпуклая оболочка.\n"
"\tcustom_face: Пользовательская маска, созданная пользователем и "
"центрированная по лицу.\n"
"\tcustom_head: Созданная пользователем маска, центрированная по голове.\n"
"\textended: Маска, разработанная для сегментации лица на основе расположения "
"ориентиров. Выпуклый корпус строится вокруг внешних ориентиров, и маска "
"расширяется вверх на лоб.\n"
"\tvgg-clear: Маска предназначена для интеллектуальной сегментации "
"преимущественно фронтальных лиц без препятствий. Профильные лица и "
"препятствия могут привести к снижению производительности.\n"
"\tvgg-obstructed: Маска, разработанная для интеллектуальной сегментации "
"преимущественно фронтальных лиц. Модель маски была специально обучена "
"распознавать некоторые препятствия на лице (руки и очки). Профильные лица "
"могут иметь низкую производительность.\n"
"\tunet-dfl: Маска, разработанная для интеллектуальной сегментации "
"преимущественно фронтальных лиц. Модель маски была обучена членами "
"сообщества и для дальнейшего описания нуждается в тестировании. Профильные "
"лица могут иметь низкую производительность."
#: plugins/train/_config.py:597
msgid ""
"Apply gaussian blur to the mask input. This has the effect of smoothing the "
"edges of the mask, which can help with poorly calculated masks and give less "
"of a hard edge to the predicted mask. The size is in pixels (calculated from "
"a 128px mask). Set to 0 to not apply gaussian blur. This value should be "
"odd, if an even number is passed in then it will be rounded to the next odd "
"number."
msgstr ""
"Применить размытие по Гауссу на входную маску. Дает эффект сглаживания краев "
"маски, что может помочь с плохо вычисленными масками и дает менее резкий "
"край предугаданной маске. Размер в пикселях (вычисленно из маски на 128 "
"пикселей). Установите 0, чтобы не применять размытие по Гауссу. Это значение "
"должно быть нечетным, если передано четное число, то оно будет округлено до "
"следующего нечетного числа."
#: plugins/train/_config.py:611
msgid ""
"Sets pixels that are near white to white and near black to black. Set to 0 "
"for off."
msgstr ""
"Устанавливает пиксели, которые почти белые - в белые и которые почти черные "
"- в черные. Установите 0, чтобы выключить."
#: plugins/train/_config.py:620
msgid ""
"Dedicate a portion of the model to learning how to duplicate the input mask. "
"Increases VRAM usage in exchange for learning a quick ability to try to "
"replicate more complex mask models."
msgstr ""
"Выделить частичку модели обучению тому, как дублировать входную маску. "
"Увеличивает использование видеопамяти в обмен на обучение быстрой "
"способности попытки переделывать более сложные маски."