mirror of
https://github.com/deepfakes/faceswap
synced 2025-06-07 10:43:27 -04:00
* Remove tensorflow_probability requirement * setup.py - fix progress bars * requirements.txt: Remove pre python 3.9 packages * update apple requirements.txt * update INSTALL.md * Remove python<3.9 code * setup.py - fix Windows Installer * typing: python3.9 compliant * Update pytest and readthedocs python versions * typing fixes * Python Version updates - Reduce max version to 3.10 - Default to 3.10 in installers - Remove incompatible 3.11 tests * Update dependencies * Downgrade imageio dep for Windows * typing: merge optional unions and fixes * Updates - min python version 3.10 - typing to python 3.10 spec - remove pre-tf2.10 code - Add conda tests * train: re-enable optimizer saving * Update dockerfiles * Update setup.py - Apple Conda deps to setup.py - Better Cuda + dependency handling * bugfix: Patch logging to prevent Autograph errors * Update dockerfiles * Setup.py - Setup.py - stdout to utf-8 * Add more OSes to github Actions * suppress mac-os end to end test
910 lines
60 KiB
Text
910 lines
60 KiB
Text
# SOME DESCRIPTIVE TITLE.
|
||
# Copyright (C) YEAR THE PACKAGE'S COPYRIGHT HOLDER
|
||
# This file is distributed under the same license as the PACKAGE package.
|
||
# FIRST AUTHOR <EMAIL@ADDRESS>, YEAR.
|
||
#
|
||
msgid ""
|
||
msgstr ""
|
||
"Project-Id-Version: \n"
|
||
"Report-Msgid-Bugs-To: \n"
|
||
"POT-Creation-Date: 2023-06-25 13:39+0100\n"
|
||
"PO-Revision-Date: 2023-06-25 13:42+0100\n"
|
||
"Last-Translator: \n"
|
||
"Language-Team: \n"
|
||
"Language: ru_RU\n"
|
||
"MIME-Version: 1.0\n"
|
||
"Content-Type: text/plain; charset=UTF-8\n"
|
||
"Content-Transfer-Encoding: 8bit\n"
|
||
"X-Generator: Poedit 3.3.1\n"
|
||
|
||
#: plugins/train/_config.py:17
|
||
msgid ""
|
||
"\n"
|
||
"NB: Unless specifically stated, values changed here will only take effect "
|
||
"when creating a new model."
|
||
msgstr ""
|
||
"\n"
|
||
"Примечание: До тех пор, пока об этом не сказано, значения, измененные здесь, "
|
||
"будут применены при создании новой модели."
|
||
|
||
#: plugins/train/_config.py:22
|
||
msgid ""
|
||
"Focal Frequency Loss. Analyzes the frequency spectrum of the images rather "
|
||
"than the images themselves. This loss function can be used on its own, but "
|
||
"the original paper found increased benefits when using it as a complementary "
|
||
"loss to another spacial loss function (e.g. MSE). Ref: Focal Frequency Loss "
|
||
"for Image Reconstruction and Synthesis https://arxiv.org/pdf/2012.12821.pdf "
|
||
"NB: This loss does not currently work on AMD cards."
|
||
msgstr ""
|
||
"Потеря фокальной частоты. Анализирует частотный спектр изображений, а не "
|
||
"сами изображения. Эта функция потерь может использоваться сама по себе, но в "
|
||
"оригинальной статье было обнаружено, что она дает больше преимуществ при "
|
||
"использовании в качестве дополнительной потери к другой пространственной "
|
||
"функции потерь (например, MSE). Ссылка: Focal Frequency Loss for Image "
|
||
"Reconstruction and Synthesis [ТОЛЬКО на английском] https://arxiv.org/"
|
||
"pdf/2012.12821.pdf NB: Эта потеря в настоящее время не работает на картах "
|
||
"AMD."
|
||
|
||
#: plugins/train/_config.py:29
|
||
msgid ""
|
||
"Nvidia FLIP. A perceptual loss measure that approximates the difference "
|
||
"perceived by humans as they alternate quickly (or flip) between two images. "
|
||
"Used on its own and this loss function creates a distinct grid on the "
|
||
"output. However it can be helpful when used as a complimentary loss "
|
||
"function. Ref: FLIP: A Difference Evaluator for Alternating Images: https://"
|
||
"research.nvidia.com/sites/default/files/node/3260/FLIP_Paper.pdf"
|
||
msgstr ""
|
||
"Nvidia FLIP. Мера потерь восприятия, которая приближает разницу, "
|
||
"воспринимаемую человеком при быстром чередовании (или перелистывании) двух "
|
||
"изображений. Используемая сама по себе, эта функция потерь создает на выходе "
|
||
"отчетливую сетку. Однако она может быть полезна при использовании в качестве "
|
||
"дополнительной функции потерь. Ссылка: FLIP: A Difference Evaluator for "
|
||
"Alternating Images [ТОЛЬКО на английском]: https://research.nvidia.com/sites/"
|
||
"default/files/node/3260/FLIP_Paper.pdf"
|
||
|
||
#: plugins/train/_config.py:36
|
||
msgid ""
|
||
"Gradient Magnitude Similarity Deviation seeks to match the global standard "
|
||
"deviation of the pixel to pixel differences between two images. Similar in "
|
||
"approach to SSIM. Ref: Gradient Magnitude Similarity Deviation: An Highly "
|
||
"Efficient Perceptual Image Quality Index https://arxiv.org/ftp/arxiv/"
|
||
"papers/1308/1308.3052.pdf"
|
||
msgstr ""
|
||
"Отклонение Схожести Магнитуды Градиентов(Gradient Magnitude Similarity "
|
||
"Deviation) пытается совместить глобальную стандартную девиацию различий "
|
||
"пикселя к пикселю между двумя изображениями. Подход похож на SSIM. Ссылка: "
|
||
"Gradient Magnitude Similarity Deviation: An Highly Efficient Perceptual "
|
||
"Image Quality Index [ТОЛЬКО на английском] https://arxiv.org/ftp/arxiv/"
|
||
"papers/1308/1308.3052.pdf"
|
||
|
||
#: plugins/train/_config.py:41
|
||
msgid ""
|
||
"The L_inf norm will reduce the largest individual pixel error in an image. "
|
||
"As each largest error is minimized sequentially, the overall error is "
|
||
"improved. This loss will be extremely focused on outliers."
|
||
msgstr ""
|
||
"Норма L_inf уменьшает наибольшую ошибку отдельного пикселя в изображении. По "
|
||
"мере последовательной минимизации каждой наибольшей ошибки улучшается общая "
|
||
"ошибка. Эта потеря будет чрезвычайно сосредоточена на выбросах."
|
||
|
||
#: plugins/train/_config.py:45
|
||
msgid ""
|
||
"Laplacian Pyramid Loss. Attempts to improve results by focussing on edges "
|
||
"using Laplacian Pyramids. As this loss function gives priority to edges over "
|
||
"other low-frequency information, like color, it should not be used on its "
|
||
"own. The original implementation uses this loss as a complimentary function "
|
||
"to MSE. Ref: Optimizing the Latent Space of Generative Networks https://"
|
||
"arxiv.org/abs/1707.05776"
|
||
msgstr ""
|
||
"Потеря пирамиды Лапласиана. Пытается улучшить результаты, концентрируясь на "
|
||
"краях с помощью пирамид Лапласиана. Поскольку эта функция потерь отдает "
|
||
"приоритет краям, а не другой низкочастотной информации, например, цвету, ее "
|
||
"не следует использовать самостоятельно. В оригинальной реализации эта потеря "
|
||
"используется как дополнительная функция к MSE. Ссылка: Optimizing the Latent "
|
||
"Space of Generative Networks [ТОЛЬКО на английском] https://arxiv.org/"
|
||
"abs/1707.05776"
|
||
|
||
#: plugins/train/_config.py:52
|
||
msgid ""
|
||
"LPIPS is a perceptual loss that uses the feature outputs of other pretrained "
|
||
"models as a loss metric. Be aware that this loss function will use more "
|
||
"VRAM. Used on its own and this loss will create a distinct moire pattern on "
|
||
"the output, however it can be helpful as a complimentary loss function. The "
|
||
"output of this function is strong, so depending on your chosen primary loss "
|
||
"function, you are unlikely going to want to set the weight above about 25%. "
|
||
"Ref: The Unreasonable Effectiveness of Deep Features as a Perceptual Metric "
|
||
"http://arxiv.org/abs/1801.03924\n"
|
||
"This variant uses the AlexNet backbone. A fairly light and old model which "
|
||
"performed best in the paper's original implementation.\n"
|
||
"NB: For AMD Users the final linear layer is not implemented."
|
||
msgstr ""
|
||
"LPIPS - это перцептивная потеря, которая использует в качестве метрики "
|
||
"потерь выходные характеристики других предварительно обученных моделей. "
|
||
"Имейте в виду, что эта функция потерь использует больше VRAM. При "
|
||
"самостоятельном использовании эта потеря создает на выходе отчетливый "
|
||
"муаровый рисунок, однако она может быть полезна как дополнительная функция "
|
||
"потерь. Вывод этой функции является сильным, поэтому, в зависимости от "
|
||
"выбранной вами основной функции потерь, вы вряд ли захотите устанавливать "
|
||
"вес выше 25%. Ссылка: The Unreasonable Effectiveness of Deep Features as a "
|
||
"Perceptual Metric [ТОЛЬКО на английском] http://arxiv.org/abs/1801.03924.\n"
|
||
"Этот вариант использует основу AlexNet. Это довольно легкая и старая модель, "
|
||
"которая лучше всего показала себя в оригинальной реализации.\n"
|
||
"NB: Для пользователей AMD последний линейный слой не реализован."
|
||
|
||
#: plugins/train/_config.py:62
|
||
msgid ""
|
||
"Same as lpips_alex, but using the SqueezeNet backbone. A more lightweight "
|
||
"version of AlexNet.\n"
|
||
"NB: For AMD Users the final linear layer is not implemented."
|
||
msgstr ""
|
||
"То же, что и lpips_alex, но использует основу SqueezeNet. Более облегченная "
|
||
"версия AlexNet.\n"
|
||
"NB: Для пользователей AMD последний линейный слой не реализован."
|
||
|
||
#: plugins/train/_config.py:65
|
||
msgid ""
|
||
"Same as lpips_alex, but using the VGG16 backbone. A more heavyweight model.\n"
|
||
"NB: For AMD Users the final linear layer is not implemented."
|
||
msgstr ""
|
||
"То же, что и lpips_alex, но использует основу VGG16. Более тяжелая модель.\n"
|
||
"NB: Для пользователей AMD последний линейный слой не реализован."
|
||
|
||
#: plugins/train/_config.py:68
|
||
msgid ""
|
||
"log(cosh(x)) acts similar to MSE for small errors and to MAE for large "
|
||
"errors. Like MSE, it is very stable and prevents overshoots when errors are "
|
||
"near zero. Like MAE, it is robust to outliers."
|
||
msgstr ""
|
||
"log(cosh(x)) действует аналогично MSE для малых ошибок и MAE для больших "
|
||
"ошибок. Как и MSE, он очень стабилен и предотвращает переборы, когда ошибки "
|
||
"близки к нулю. Как и MAE, он устойчив к выбросам."
|
||
|
||
#: plugins/train/_config.py:72
|
||
msgid ""
|
||
"Mean absolute error will guide reconstructions of each pixel towards its "
|
||
"median value in the training dataset. Robust to outliers but as a median, it "
|
||
"can potentially ignore some infrequent image types in the dataset."
|
||
msgstr ""
|
||
"Средняя абсолютная погрешность направляет реконструкцию каждого пикселя к "
|
||
"его медианному значению в обучающем наборе данных. Устойчив к выбросам, но в "
|
||
"качестве медианы может игнорировать некоторые редкие типы изображений в "
|
||
"наборе данных."
|
||
|
||
#: plugins/train/_config.py:76
|
||
msgid ""
|
||
"Mean squared error will guide reconstructions of each pixel towards its "
|
||
"average value in the training dataset. As an avg, it will be susceptible to "
|
||
"outliers and typically produces slightly blurrier results. Ref: Multi-Scale "
|
||
"Structural Similarity for Image Quality Assessment https://www.cns.nyu.edu/"
|
||
"pub/eero/wang03b.pdf"
|
||
msgstr ""
|
||
"Средняя квадратичная погрешность направляет реконструкцию каждого пикселя к "
|
||
"его среднему значению в наборе данных для обучения. Как среднее значение, "
|
||
"оно будет чувствительно к выбросам и обычно дает немного более размытые "
|
||
"результаты. Ссылка: Multi-Scale Structural Similarity for Image Quality "
|
||
"Assessment [ТОЛЬКО на английском]https://www.cns.nyu.edu/pub/eero/wang03b.pdf"
|
||
|
||
#: plugins/train/_config.py:81
|
||
msgid ""
|
||
"Multiscale Structural Similarity Index Metric is similar to SSIM except that "
|
||
"it performs the calculations along multiple scales of the input image."
|
||
msgstr ""
|
||
"Метрика Индекса Многомасштабного Структурного Сходства (Multiscale "
|
||
"Structural Similarity Index Metric) похожа на SSIM, за исключением того, что "
|
||
"она выполняет вычисления по нескольким масштабам входного изображения."
|
||
|
||
#: plugins/train/_config.py:84
|
||
msgid ""
|
||
"Smooth_L1 is a modification of the MAE loss to correct two of its "
|
||
"disadvantages. This loss has improved stability and guidance for small "
|
||
"errors. Ref: A General and Adaptive Robust Loss Function https://arxiv.org/"
|
||
"pdf/1701.03077.pdf"
|
||
msgstr ""
|
||
"Smooth_L1 - это модификация потери MAE для исправления двух ее недостатков. "
|
||
"Эта потеря улучшает стабильность и ориентирование при небольших "
|
||
"погрешностях. Ссылка: A General and Adaptive Robust Loss Function [ТОЛЬКО на "
|
||
"английском] https://arxiv.org/pdf/1701.03077.pdf"
|
||
|
||
#: plugins/train/_config.py:88
|
||
msgid ""
|
||
"Structural Similarity Index Metric is a perception-based loss that considers "
|
||
"changes in texture, luminance, contrast, and local spatial statistics of an "
|
||
"image. Potentially delivers more realistic looking images. Ref: Image "
|
||
"Quality Assessment: From Error Visibility to Structural Similarity http://"
|
||
"www.cns.nyu.edu/pub/eero/wang03-reprint.pdf"
|
||
msgstr ""
|
||
"Метрика индекса структурного сходства ('Structural Similarity Index Metric') "
|
||
"- это основанная на восприятии потеря, которая учитывает изменения в "
|
||
"текстуре, яркости, контрасте и локальной пространственной статистике "
|
||
"изображения. Потенциально обеспечивает более реалистичный вид изображений. "
|
||
"Ссылка: Image Quality Assessment: From Error Visibility to Structural "
|
||
"Similarity [ТОЛЬКО на английском] http://www.cns.nyu.edu/pub/eero/wang03-"
|
||
"reprint.pdf"
|
||
|
||
#: plugins/train/_config.py:93
|
||
msgid ""
|
||
"Instead of minimizing the difference between the absolute value of each "
|
||
"pixel in two reference images, compute the pixel to pixel spatial difference "
|
||
"in each image and then minimize that difference between two images. Allows "
|
||
"for large color shifts, but maintains the structure of the image."
|
||
msgstr ""
|
||
"Вместо того чтобы минимизировать разницу между абсолютным значением каждого "
|
||
"пикселя в двух образцовых изображениях, вычислить пространственную разницу "
|
||
"между пикселями в каждом изображении и затем минимизировать эту разницу "
|
||
"между двумя изображениями. Это позволяет получить большие цветовые сдвиги, "
|
||
"но сохраняет структуру изображения."
|
||
|
||
#: plugins/train/_config.py:97
|
||
msgid "Do not use an additional loss function."
|
||
msgstr "Не использовать функцию дополнительных потерь."
|
||
|
||
#: plugins/train/_config.py:117
|
||
msgid "Options that apply to all models"
|
||
msgstr "Настройки, применимые ко всем моделям"
|
||
|
||
#: plugins/train/_config.py:126 plugins/train/_config.py:150
|
||
msgid "face"
|
||
msgstr "лицо"
|
||
|
||
#: plugins/train/_config.py:128
|
||
msgid ""
|
||
"How to center the training image. The extracted images are centered on the "
|
||
"middle of the skull based on the face's estimated pose. A subsection of "
|
||
"these images are used for training. The centering used dictates how this "
|
||
"subsection will be cropped from the aligned images.\n"
|
||
"\tface: Centers the training image on the center of the face, adjusting for "
|
||
"pitch and yaw.\n"
|
||
"\thead: Centers the training image on the center of the head, adjusting for "
|
||
"pitch and yaw. NB: You should only select head centering if you intend to "
|
||
"include the full head (including hair) in the final swap. This may give "
|
||
"mixed results. Additionally, it is only worth choosing head centering if you "
|
||
"are training with a mask that includes the hair (e.g. BiSeNet-FP-Head).\n"
|
||
"\tlegacy: The 'original' extraction technique. Centers the training image "
|
||
"near the tip of the nose with no adjustment. Can result in the edges of the "
|
||
"face appearing outside of the training area."
|
||
msgstr ""
|
||
"Как централизовывать тренировочное изображение. Центр в извлеченных "
|
||
"изображениях находится в середине черепа, основанный на примерной позе лица. "
|
||
"Подсекция этих изображений используется для тренировки. Используемый центр "
|
||
"диктует то, как эта подсекция будет обрезана из выравненных изображений.\n"
|
||
"\tface: Центрирует учебное изображение по центру лица, регулируя угол "
|
||
"наклона и поворота.\n"
|
||
"\thead: Централизует тренировочное изображение в центре головы, регулируя "
|
||
"угол наклона и поворота. Примечание: Следует выбирать централизацию головы, "
|
||
"если вы планируете включать голову полностью (включая волосы) в финальную "
|
||
"замену. Может дать смешанные результаты. В дополнении, оно стоит того только "
|
||
"если вы тренируете с маской, что включает в себя волосы (к примеру: BiSeNet-"
|
||
"FP-Head).\n"
|
||
"\tlegacy: 'оригинальная' техника извлечения. Централизует тренировочное "
|
||
"изображение ближе к кончику носа без правок. Может привести к тому, что края "
|
||
"лица будут вне тренировочной зоны."
|
||
|
||
#: plugins/train/_config.py:152
|
||
msgid ""
|
||
"How much of the extracted image to train on. A lower coverage will limit the "
|
||
"model's scope to a zoomed-in central area while higher amounts can include "
|
||
"the entire face. A trade-off exists between lower amounts given more detail "
|
||
"versus higher amounts avoiding noticeable swap transitions. For 'Face' "
|
||
"centering you will want to leave this above 75%. For Head centering you will "
|
||
"most likely want to set this to 100%. Sensible values for 'Legacy' centering "
|
||
"are:\n"
|
||
"\t62.5% spans from eyebrow to eyebrow.\n"
|
||
"\t75.0% spans from temple to temple.\n"
|
||
"\t87.5% spans from ear to ear.\n"
|
||
"\t100.0% is a mugshot."
|
||
msgstr ""
|
||
"Сколько извлеченного изображения тренировать. Низкая покрытость ограничит "
|
||
"прицел модели к приближенной центральной зоне, в то время как большие "
|
||
"значения могут включать в себя целое лицо. Существует компромисс между "
|
||
"меньшими объемами, дающими больше деталей, и большими объемами, позволяющими "
|
||
"избежать заметных переходов замены. Для централизации 'Face', вам нужно "
|
||
"будет оставить значение выше 75%. Для централизации 'Head', вам скорее всего "
|
||
"нужно будет поставить значение 100%. Адекватные значения для 'Legacy':\n"
|
||
"\t62.5% охватывает от бровей до бровей.\n"
|
||
"\t75% охватывает от виска до виска.\n"
|
||
"\t87.5% охватывает от уха до уха.\n"
|
||
"\t100% - полный снимок."
|
||
|
||
#: plugins/train/_config.py:168 plugins/train/_config.py:179
|
||
msgid "initialization"
|
||
msgstr "инициализация"
|
||
|
||
#: plugins/train/_config.py:170
|
||
msgid ""
|
||
"Use ICNR to tile the default initializer in a repeating pattern. This "
|
||
"strategy is designed for pairing with sub-pixel / pixel shuffler to reduce "
|
||
"the 'checkerboard effect' in image reconstruction. \n"
|
||
"\t https://arxiv.org/ftp/arxiv/papers/1707/1707.02937.pdf"
|
||
msgstr ""
|
||
"Использовать ICNR для чередования инициализатора по умолчанию в "
|
||
"повторяющемся шаблоне. Эта стратегия предназначена для использования в паре "
|
||
"с субпиксельным/пиксельным перетасовщиком для уменьшения \"эффекта шахматной "
|
||
"доски\" при реконструкции изображения. \n"
|
||
"\t [ТОЛЬКО на английском] https://arxiv.org/ftp/arxiv/papers/1707/1707.02937."
|
||
"pdf"
|
||
|
||
#: plugins/train/_config.py:181
|
||
msgid ""
|
||
"Use Convolution Aware Initialization for convolutional layers. This can help "
|
||
"eradicate the vanishing and exploding gradient problem as well as lead to "
|
||
"higher accuracy, lower loss and faster convergence.\n"
|
||
"NB:\n"
|
||
"\t This can use more VRAM when creating a new model so you may want to lower "
|
||
"the batch size for the first run. The batch size can be raised again when "
|
||
"reloading the model. \n"
|
||
"\t Multi-GPU is not supported for this option, so you should start the model "
|
||
"on a single GPU. Once training has started, you can stop training, enable "
|
||
"multi-GPU and resume.\n"
|
||
"\t Building the model will likely take several minutes as the calculations "
|
||
"for this initialization technique are expensive. This will only impact "
|
||
"starting a new model."
|
||
msgstr ""
|
||
"Использовать инициализацию с учетом свертки для сверточных слоев. Это "
|
||
"поможет устранить проблему исчезающего и взрывающегося градиента, а также "
|
||
"повысить точность, снизить потери и ускорить сходимость.\n"
|
||
"Примечание:\n"
|
||
"\tПри создании новой модели может потребоваться больше видеопамяти, поэтому "
|
||
"для первого запуска лучше уменьшить размер пачки. Размер пачки может быть "
|
||
"увеличен при перезагрузке модели. \n"
|
||
"\tИспользование нескольких видеокарт не поддерживается, поэтому модель "
|
||
"следует запускать на одной видеокарте. После начала обучения вы можете "
|
||
"остановить обучение, включить несколько видеокарт и возобновить его.\n"
|
||
"\t Построение модели, скорее всего, займет несколько минут, поскольку "
|
||
"вычисления для этой техники инициализации являются дорогостоящими. Это "
|
||
"повлияет только на запуск новой модели."
|
||
|
||
#: plugins/train/_config.py:198 plugins/train/_config.py:223
|
||
#: plugins/train/_config.py:238 plugins/train/_config.py:256
|
||
#: plugins/train/_config.py:290
|
||
msgid "optimizer"
|
||
msgstr "оптимизатор"
|
||
|
||
#: plugins/train/_config.py:202
|
||
msgid ""
|
||
"The optimizer to use.\n"
|
||
"\t adabelief - Adapting Stepsizes by the Belief in Observed Gradients. An "
|
||
"optimizer with the aim to converge faster, generalize better and remain more "
|
||
"stable. (https://arxiv.org/abs/2010.07468). NB: Epsilon for AdaBelief needs "
|
||
"to be set to a smaller value than other Optimizers. Generally setting the "
|
||
"'Epsilon Exponent' to around '-16' should work.\n"
|
||
"\t adam - Adaptive Moment Optimization. A stochastic gradient descent method "
|
||
"that is based on adaptive estimation of first-order and second-order "
|
||
"moments.\n"
|
||
"\t nadam - Adaptive Moment Optimization with Nesterov Momentum. Much like "
|
||
"Adam but uses a different formula for calculating momentum.\n"
|
||
"\t rms-prop - Root Mean Square Propagation. Maintains a moving (discounted) "
|
||
"average of the square of the gradients. Divides the gradient by the root of "
|
||
"this average."
|
||
msgstr ""
|
||
"Используемый оптимизатор.\n"
|
||
"\t adabelief - Адаптация размеров шагов по убеждению в наблюдаемых "
|
||
"градиентах('Adapting Stepsizes by the Belief in Observed Gradients'). "
|
||
"Оптимизатор, цель которого - быстрее сходиться, лучше обобщаться и "
|
||
"оставаться более стабильным. ([ТОЛЬКО на английском] https://arxiv.org/"
|
||
"abs/2010.07468). Примечание: значение Epsilon для AdaBelief должно быть "
|
||
"меньше, чем для других оптимизаторов. Как правило, значение 'Epsilon "
|
||
"Exponent' должно быть около '-16'.\n"
|
||
"\t adam - Адаптивная оптимизация моментов('Adaptive Moment Optimization'). "
|
||
"Стохастический метод градиентного спуска, основанный на адаптивной оценке "
|
||
"моментов первого и второго порядка.\n"
|
||
"\t nadam - Адаптивная оптимизация моментов с моментумом Нестерова ('Adaptive "
|
||
"Moment Optimization with Nesterov Momentum'). Похож на Adam, но использует "
|
||
"другую формулу для вычисления момента.\n"
|
||
"rms-prop - Распространение корневого среднего квадрата ('Root Mean Square "
|
||
"Propagation'). Поддерживает скользящее (дисконтированное) среднее квадрата "
|
||
"градиентов. Делит градиент на корень из этого среднего."
|
||
|
||
#: plugins/train/_config.py:225
|
||
msgid ""
|
||
"Learning rate - how fast your network will learn (how large are the "
|
||
"modifications to the model weights after one batch of training). Values that "
|
||
"are too large might result in model crashes and the inability of the model "
|
||
"to find the best solution. Values that are too small might be unable to "
|
||
"escape from dead-ends and find the best global minimum."
|
||
msgstr ""
|
||
"Скорость обучения - насколько быстро ваша модель будет обучаться (насколько "
|
||
"огромны изменения весов модели после одной пачки тренировки). Слишком "
|
||
"большие значения могут привести к крахам модели и невозможности модели найти "
|
||
"лучшее решение. Слишком маленькие значения могут привести к невозможности "
|
||
"выбраться из тупиков и найти лучший глобальный минимум."
|
||
|
||
#: plugins/train/_config.py:240
|
||
msgid ""
|
||
"The epsilon adds a small constant to weight updates to attempt to avoid "
|
||
"'divide by zero' errors. Unless you are using the AdaBelief Optimizer, then "
|
||
"Generally this option should be left at default value, For AdaBelief, "
|
||
"setting this to around '-16' should work.\n"
|
||
"In all instances if you are getting 'NaN' loss values, and have been unable "
|
||
"to resolve the issue any other way (for example, increasing batch size, or "
|
||
"lowering learning rate), then raising the epsilon can lead to a more stable "
|
||
"model. It may, however, come at the cost of slower training and a less "
|
||
"accurate final result.\n"
|
||
"NB: The value given here is the 'exponent' to the epsilon. For example, "
|
||
"choosing '-7' will set the epsilon to 1e-7. Choosing '-3' will set the "
|
||
"epsilon to 0.001 (1e-3)."
|
||
msgstr ""
|
||
"Эпсилон добавляет небольшую константу к обновлениям веса, чтобы попытаться "
|
||
"избежать ошибок \"деления на ноль\". Если вы не используете оптимизатор "
|
||
"AdaBelief, то, как правило, этот параметр следует оставить по умолчанию. Для "
|
||
"AdaBelief подойдет значение около '-16'.\n"
|
||
"Во всех случаях, если вы получаете значения потерь 'NaN' и не смогли решить "
|
||
"проблему другим способом (например, увеличив размер пачки или уменьшив "
|
||
"скорость обучения), то увеличение эпсилона может привести к более стабильной "
|
||
"модели. Однако это может стоить более медленного обучения и менее точного "
|
||
"конечного результата.\n"
|
||
"Примечание: Значение, указанное здесь, является \"экспонентой\" к эпсилону. "
|
||
"Например, при выборе значения '-7' эпсилон будет равен 1e-7. При выборе "
|
||
"значения \"-3\" эпсилон будет равен 0,001 (1e-3)."
|
||
|
||
#: plugins/train/_config.py:262
|
||
msgid ""
|
||
"When to save the Optimizer Weights. Saving the optimizer weights is not "
|
||
"necessary and will increase the model file size 3x (and by extension the "
|
||
"amount of time it takes to save the model). However, it can be useful to "
|
||
"save these weights if you want to guarantee that a resumed model carries off "
|
||
"exactly from where it left off, rather than spending a few hundred "
|
||
"iterations catching up.\n"
|
||
"\t never - Don't save optimizer weights.\n"
|
||
"\t always - Save the optimizer weights at every save iteration. Model saving "
|
||
"will take longer, due to the increased file size, but you will always have "
|
||
"the last saved optimizer state in your model file.\n"
|
||
"\t exit - Only save the optimizer weights when explicitly terminating a "
|
||
"model. This can be when the model is actively stopped or when the target "
|
||
"iterations are met. Note: If the training session ends because of another "
|
||
"reason (e.g. power outage, Out of Memory Error, NaN detected) then the "
|
||
"optimizer weights will NOT be saved."
|
||
msgstr ""
|
||
"Когда сохранять веса оптимизатора. Сохранение весов оптимизатора не является "
|
||
"необходимым и увеличит размер файла модели в 3 раза (и соответственно время, "
|
||
"необходимое для сохранения модели). Однако может быть полезно сохранить эти "
|
||
"веса, если вы хотите гарантировать, что возобновленная модель продолжит "
|
||
"работу именно с того места, где она остановилась, а не тратит несколько "
|
||
"сотен итераций на догонялки.\n"
|
||
"\t never - не сохранять веса оптимизатора.\n"
|
||
"\t always - сохранять веса оптимизатора при каждой итерации сохранения. "
|
||
"Сохранение модели займет больше времени из-за увеличенного размера файла, но "
|
||
"в файле модели всегда будет последнее сохраненное состояние оптимизатора.\n"
|
||
"\t exit - сохранять веса оптимизатора только при явном завершении модели. "
|
||
"Это может быть, когда модель активно останавливается или когда выполняются "
|
||
"целевые итерации. Примечание. Если сеанс обучения завершается по другой "
|
||
"причине (например, отключение питания, ошибка нехватки памяти, обнаружение "
|
||
"NaN), веса оптимизатора НЕ будут сохранены."
|
||
|
||
#: plugins/train/_config.py:283
|
||
msgid ""
|
||
"Apply AutoClipping to the gradients. AutoClip analyzes the gradient weights "
|
||
"and adjusts the normalization value dynamically to fit the data. Can help "
|
||
"prevent NaNs and improve model optimization at the expense of VRAM. Ref: "
|
||
"AutoClip: Adaptive Gradient Clipping for Source Separation Networks https://"
|
||
"arxiv.org/abs/2007.14469"
|
||
msgstr ""
|
||
"Применить AutoClipping к градиентам. AutoClip анализирует веса градиентов и "
|
||
"динамически корректирует значение нормализации, чтобы оно подходило к "
|
||
"данным. Может помочь избежать NaN('не число') и улучшить оптимизацию модели "
|
||
"ценой видеопамяти. Ссылка: AutoClip: Adaptive Gradient Clipping for Source "
|
||
"Separation Networks [ТОЛЬКО на английском] https://arxiv.org/abs/2007.14469"
|
||
|
||
#: plugins/train/_config.py:296 plugins/train/_config.py:308
|
||
#: plugins/train/_config.py:322 plugins/train/_config.py:339
|
||
msgid "network"
|
||
msgstr "сеть"
|
||
|
||
#: plugins/train/_config.py:298
|
||
msgid ""
|
||
"Use reflection padding rather than zero padding with convolutions. Each "
|
||
"convolution must pad the image boundaries to maintain the proper sizing. "
|
||
"More complex padding schemes can reduce artifacts at the border of the "
|
||
"image.\n"
|
||
"\t http://www-cs.engr.ccny.cuny.edu/~wolberg/cs470/hw/hw2_pad.txt"
|
||
msgstr ""
|
||
"Используйте для сверток не нулевую, а отражающую подкладку. Каждая свертка "
|
||
"должна заполнять границы изображения для поддержания правильного размера. "
|
||
"Более сложные схемы вставки могут уменьшить артефакты на границе "
|
||
"изображения.\n"
|
||
"\t http://www-cs.engr.ccny.cuny.edu/~wolberg/cs470/hw/hw2_pad.txt"
|
||
|
||
#: plugins/train/_config.py:311
|
||
msgid ""
|
||
"Enable the Tensorflow GPU 'allow_growth' configuration option. This option "
|
||
"prevents Tensorflow from allocating all of the GPU VRAM at launch but can "
|
||
"lead to higher VRAM fragmentation and slower performance. Should only be "
|
||
"enabled if you are receiving errors regarding 'cuDNN fails to initialize' "
|
||
"when commencing training."
|
||
msgstr ""
|
||
"[Только для Nvidia]. Включите опцию конфигурации Tensorflow GPU "
|
||
"`allow_growth`. Эта опция не позволяет Tensorflow выделять всю видеопамять "
|
||
"видеокарты при запуске, но может привести к повышенной фрагментации "
|
||
"видеопамяти и снижению производительности. Следует включать только в том "
|
||
"случае, если у вас появляются ошибки, рода 'cuDNN fails to initialize'(cuDNN "
|
||
"не может инициализироваться) при начале тренировки."
|
||
|
||
#: plugins/train/_config.py:324
|
||
msgid ""
|
||
"NVIDIA GPUs can run operations in float16 faster than in float32. Mixed "
|
||
"precision allows you to use a mix of float16 with float32, to get the "
|
||
"performance benefits from float16 and the numeric stability benefits from "
|
||
"float32.\n"
|
||
"\n"
|
||
"This is untested on DirectML backend, but will run on most Nvidia models. it "
|
||
"will only speed up training on more recent GPUs. Those with compute "
|
||
"capability 7.0 or higher will see the greatest performance benefit from "
|
||
"mixed precision because they have Tensor Cores. Older GPUs offer no math "
|
||
"performance benefit for using mixed precision, however memory and bandwidth "
|
||
"savings can enable some speedups. Generally RTX GPUs and later will offer "
|
||
"the most benefit."
|
||
msgstr ""
|
||
"Видеокарты от NVIDIA могут оперировать в 'float16' быстрее, чем в 'float32'. "
|
||
"Смешанная точность позволяет вам использовать микс float16 с float32, чтобы "
|
||
"получить улучшение производительности от float16 и числовую стабильность от "
|
||
"float32.\n"
|
||
"\n"
|
||
"Это не было проверено на DirectML, но будет работать на большенстве моделей "
|
||
"Nvidia. Оно только ускорит тренировку на более недавних видеокартах. Те, что "
|
||
"имеют возможность вычислений('Compute Capability') 7.0 и выше, получат самое "
|
||
"большое ускорение от смешанной точности, потому что у них имеются тензор "
|
||
"ядра. Старые видеокарты предлагают никакого ускорения от смешанной точности, "
|
||
"однако экономия памяти и (хз, честно, словаря нет) могут дать небольшое "
|
||
"ускорение. В основном RTX видеокарты и позже предлагают самое большое "
|
||
"ускорение."
|
||
|
||
#: plugins/train/_config.py:341
|
||
msgid ""
|
||
"If a 'NaN' is generated in the model, this means that the model has "
|
||
"corrupted and the model is likely to start deteriorating from this point on. "
|
||
"Enabling NaN protection will stop training immediately in the event of a "
|
||
"NaN. The last save will not contain the NaN, so you may still be able to "
|
||
"rescue your model."
|
||
msgstr ""
|
||
"Если 'Не число'(далее, NaN) сгенерировано в модели - это значит, что модель "
|
||
"повреждена и с этого момента, скорее всего, начнет деградировать. Включение "
|
||
"защиты от NaN немедленно остановит тренировку, в случае, если был обнаружен "
|
||
"NaN. Последнее сохранение не будет содержать в себе NaN, так что у вас будет "
|
||
"возможность спасти вашу модель."
|
||
|
||
#: plugins/train/_config.py:354
|
||
msgid "convert"
|
||
msgstr "конвертирование"
|
||
|
||
#: plugins/train/_config.py:356
|
||
msgid ""
|
||
"[GPU Only]. The number of faces to feed through the model at once when "
|
||
"running the Convert process.\n"
|
||
"\n"
|
||
"NB: Increasing this figure is unlikely to improve convert speed, however, if "
|
||
"you are getting Out of Memory errors, then you may want to reduce the batch "
|
||
"size."
|
||
msgstr ""
|
||
"[Только для видеокарт] Количество лиц, проходящих через модель в одно время "
|
||
"во время конвертирования\n"
|
||
"\n"
|
||
"Примечание: Увеличение этого значения вряд ли повлечет за собой ускорение "
|
||
"конвертирования, однако, если у вас появляются ошибки 'Out of Memory', тогда "
|
||
"стоит снизить размер пачки."
|
||
|
||
#: plugins/train/_config.py:375
|
||
msgid ""
|
||
"Loss configuration options\n"
|
||
"Loss is the mechanism by which a Neural Network judges how well it thinks "
|
||
"that it is recreating a face."
|
||
msgstr ""
|
||
"Настройки потерь\n"
|
||
"Потеря - механизм, по которому Нейронная Сеть судит, насколько хорошо она "
|
||
"воспроизводит лицо."
|
||
|
||
#: plugins/train/_config.py:382 plugins/train/_config.py:394
|
||
#: plugins/train/_config.py:407 plugins/train/_config.py:427
|
||
#: plugins/train/_config.py:439 plugins/train/_config.py:459
|
||
#: plugins/train/_config.py:471 plugins/train/_config.py:491
|
||
#: plugins/train/_config.py:507 plugins/train/_config.py:523
|
||
#: plugins/train/_config.py:540
|
||
msgid "loss"
|
||
msgstr "потери"
|
||
|
||
#: plugins/train/_config.py:386
|
||
msgid "The loss function to use."
|
||
msgstr "Какую функцию потерь стоит использовать."
|
||
|
||
#: plugins/train/_config.py:398
|
||
msgid ""
|
||
"The second loss function to use. If using a structural based loss (such as "
|
||
"SSIM, MS-SSIM or GMSD) it is common to add an L1 regularization(MAE) or L2 "
|
||
"regularization (MSE) function. You can adjust the weighting of this loss "
|
||
"function with the loss_weight_2 option."
|
||
msgstr ""
|
||
"Вторая используемая функция потерь. При использовании потерь, основанных на "
|
||
"структуре (таких как SSIM, MS-SSIM или GMSD), обычно добавляется функция "
|
||
"регуляризации L1 (MAE) или регуляризации L2 (MSE). Вы можете настроить вес "
|
||
"этой функции потерь с помощью параметра loss_weight_2."
|
||
|
||
#: plugins/train/_config.py:413
|
||
msgid ""
|
||
"The amount of weight to apply to the second loss function.\n"
|
||
"\n"
|
||
"\n"
|
||
"\n"
|
||
"The value given here is as a percentage denoting how much the selected "
|
||
"function should contribute to the overall loss cost of the model. For "
|
||
"example:\n"
|
||
"\t 100 - The loss calculated for the second loss function will be applied at "
|
||
"its full amount towards the overall loss score. \n"
|
||
"\t 25 - The loss calculated for the second loss function will be reduced by "
|
||
"a quarter prior to adding to the overall loss score. \n"
|
||
"\t 400 - The loss calculated for the second loss function will be mulitplied "
|
||
"4 times prior to adding to the overall loss score. \n"
|
||
"\t 0 - Disables the second loss function altogether."
|
||
msgstr ""
|
||
"Величина веса, применяемая ко второй функции потерь.\n"
|
||
"\n"
|
||
"\n"
|
||
"\n"
|
||
"Значение задается в процентах и показывает, какой вклад выбранная функция "
|
||
"должна внести в общую стоимость потерь модели. Например:\n"
|
||
"\t 100 - Потери, рассчитанные для четвертой функции потерь, будут применены "
|
||
"в полном объеме к общей стоимости потерь. \n"
|
||
"\t25 - Потери, рассчитанные для четвертой функции потерь, будут уменьшены на "
|
||
"четверть перед добавлением к общей стоимости потерь. \n"
|
||
"\t400 - Потери, рассчитанные для четвертой функции потерь, будут умножены в "
|
||
"4 раза перед добавлением к общей оценке потерь. \n"
|
||
"\t 0 - Полностью отключает четвертую функцию потерь."
|
||
|
||
#: plugins/train/_config.py:431
|
||
msgid ""
|
||
"The third loss function to use. You can adjust the weighting of this loss "
|
||
"function with the loss_weight_3 option."
|
||
msgstr ""
|
||
"Третья используемая функция потерь. Вы можете настроить вес этой функции "
|
||
"потерь с помощью параметра loss_weight_3."
|
||
|
||
#: plugins/train/_config.py:445
|
||
msgid ""
|
||
"The amount of weight to apply to the third loss function.\n"
|
||
"\n"
|
||
"\n"
|
||
"\n"
|
||
"The value given here is as a percentage denoting how much the selected "
|
||
"function should contribute to the overall loss cost of the model. For "
|
||
"example:\n"
|
||
"\t 100 - The loss calculated for the third loss function will be applied at "
|
||
"its full amount towards the overall loss score. \n"
|
||
"\t 25 - The loss calculated for the third loss function will be reduced by a "
|
||
"quarter prior to adding to the overall loss score. \n"
|
||
"\t 400 - The loss calculated for the third loss function will be mulitplied "
|
||
"4 times prior to adding to the overall loss score. \n"
|
||
"\t 0 - Disables the third loss function altogether."
|
||
msgstr ""
|
||
"Величина веса, применяемая к третьей функции потерь.\n"
|
||
"\n"
|
||
"\n"
|
||
"\n"
|
||
"Значение задается в процентах и показывает, какой вклад выбранная функция "
|
||
"должна внести в общую стоимость потерь модели. Например:\n"
|
||
"\t 100 - Потери, рассчитанные для четвертой функции потерь, будут применены "
|
||
"в полном объеме к общей стоимости потерь. \n"
|
||
"\t25 - Потери, рассчитанные для четвертой функции потерь, будут уменьшены на "
|
||
"четверть перед добавлением к общей стоимости потерь. \n"
|
||
"\t400 - Потери, рассчитанные для четвертой функции потерь, будут умножены в "
|
||
"4 раза перед добавлением к общей оценке потерь. \n"
|
||
"\t 0 - Полностью отключает четвертую функцию потерь."
|
||
|
||
#: plugins/train/_config.py:463
|
||
msgid ""
|
||
"The fourth loss function to use. You can adjust the weighting of this loss "
|
||
"function with the loss_weight_3 option."
|
||
msgstr ""
|
||
"Четвертая используемая функция потерь. Вы можете настроить вес этой функции "
|
||
"потерь с помощью параметра 'loss_weight_4'."
|
||
|
||
#: plugins/train/_config.py:477
|
||
msgid ""
|
||
"The amount of weight to apply to the fourth loss function.\n"
|
||
"\n"
|
||
"\n"
|
||
"\n"
|
||
"The value given here is as a percentage denoting how much the selected "
|
||
"function should contribute to the overall loss cost of the model. For "
|
||
"example:\n"
|
||
"\t 100 - The loss calculated for the fourth loss function will be applied at "
|
||
"its full amount towards the overall loss score. \n"
|
||
"\t 25 - The loss calculated for the fourth loss function will be reduced by "
|
||
"a quarter prior to adding to the overall loss score. \n"
|
||
"\t 400 - The loss calculated for the fourth loss function will be mulitplied "
|
||
"4 times prior to adding to the overall loss score. \n"
|
||
"\t 0 - Disables the fourth loss function altogether."
|
||
msgstr ""
|
||
"Величина веса, применяемая к четвертой функции потерь.\n"
|
||
"\n"
|
||
"\n"
|
||
"\n"
|
||
"Значение задается в процентах и показывает, какой вклад выбранная функция "
|
||
"должна внести в общую стоимость потерь модели. Например:\n"
|
||
"\t 100 - Потери, рассчитанные для четвертой функции потерь, будут применены "
|
||
"в полном объеме к общей стоимости потерь. \n"
|
||
"\t25 - Потери, рассчитанные для четвертой функции потерь, будут уменьшены на "
|
||
"четверть перед добавлением к общей стоимости потерь. \n"
|
||
"\t400 - Потери, рассчитанные для четвертой функции потерь, будут умножены в "
|
||
"4 раза перед добавлением к общей оценке потерь. \n"
|
||
"\t 0 - Полностью отключает четвертую функцию потерь."
|
||
|
||
#: plugins/train/_config.py:496
|
||
msgid ""
|
||
"The loss function to use when learning a mask.\n"
|
||
"\t MAE - Mean absolute error will guide reconstructions of each pixel "
|
||
"towards its median value in the training dataset. Robust to outliers but as "
|
||
"a median, it can potentially ignore some infrequent image types in the "
|
||
"dataset.\n"
|
||
"\t MSE - Mean squared error will guide reconstructions of each pixel towards "
|
||
"its average value in the training dataset. As an average, it will be "
|
||
"susceptible to outliers and typically produces slightly blurrier results."
|
||
msgstr ""
|
||
"Функция потерь, используемая при обучении маски.\n"
|
||
"\tMAE - средняя абсолютная погрешность('Mean absolute error') направляет "
|
||
"реконструкцию каждого пикселя к его срединному значению в обучающем наборе "
|
||
"данных. Устойчива к выбросам, но как медиана может игнорировать некоторые "
|
||
"редкие типы изображений в наборе данных.\n"
|
||
"\tMSE - средняя квадратичная погрешность('Mean squared error') направляет "
|
||
"реконструкцию каждого пикселя к его срединному значению в обучающем наборе "
|
||
"данных. Как среднее значение, оно чувствительно к выбросам и обычно дает "
|
||
"немного более размытые результаты."
|
||
|
||
#: plugins/train/_config.py:513
|
||
msgid ""
|
||
"The amount of priority to give to the eyes.\n"
|
||
"\n"
|
||
"The value given here is as a multiplier of the main loss score. For "
|
||
"example:\n"
|
||
"\t 1 - The eyes will receive the same priority as the rest of the face. \n"
|
||
"\t 10 - The eyes will be given a score 10 times higher than the rest of the "
|
||
"face.\n"
|
||
"\n"
|
||
"NB: Penalized Mask Loss must be enable to use this option."
|
||
msgstr ""
|
||
"Величина приоритета, которую следует придать глазам.\n"
|
||
"\n"
|
||
"Значение дается как множитель основного показателя потерь. Например:\n"
|
||
"\t 1 - Глаза получат тот же приоритет, что и остальное лицо. \n"
|
||
"\t 10 - глаза получат оценку в 10 раз выше, чем остальные части лица.\n"
|
||
"\n"
|
||
"NB: Penalized Mask Loss должен быть включен, чтобы использовать эту опцию."
|
||
|
||
#: plugins/train/_config.py:529
|
||
msgid ""
|
||
"The amount of priority to give to the mouth.\n"
|
||
"\n"
|
||
"The value given here is as a multiplier of the main loss score. For "
|
||
"Example:\n"
|
||
"\t 1 - The mouth will receive the same priority as the rest of the face. \n"
|
||
"\t 10 - The mouth will be given a score 10 times higher than the rest of the "
|
||
"face.\n"
|
||
"\n"
|
||
"NB: Penalized Mask Loss must be enable to use this option."
|
||
msgstr ""
|
||
"Величина приоритета, которую следует придать рту.\n"
|
||
"\n"
|
||
"Значение дается как множитель основного показателя потерь. Например:\n"
|
||
"\t 1 - Рот получит тот же приоритет, что и остальное лицо. \n"
|
||
"\t 10 - Рот получит оценку в 10 раз выше, чем остальные части лица.\n"
|
||
"\n"
|
||
"NB: Penalized Mask Loss должен быть включен, чтобы использовать эту опцию."
|
||
|
||
#: plugins/train/_config.py:542
|
||
msgid ""
|
||
"Image loss function is weighted by mask presence. For areas of the image "
|
||
"without the facial mask, reconstruction errors will be ignored while the "
|
||
"masked face area is prioritized. May increase overall quality by focusing "
|
||
"attention on the core face area."
|
||
msgstr ""
|
||
"Функция потерь изображения взвешивается по наличию маски. Для областей "
|
||
"изображения без маски лица погрешности реконструкции игнорируются, в то "
|
||
"время как область лица с маской является приоритетной. Может повысить общее "
|
||
"качество за счет концентрации внимания на основной области лица."
|
||
|
||
#: plugins/train/_config.py:553 plugins/train/_config.py:595
|
||
#: plugins/train/_config.py:609 plugins/train/_config.py:618
|
||
msgid "mask"
|
||
msgstr "маска"
|
||
|
||
#: plugins/train/_config.py:556
|
||
msgid ""
|
||
"The mask to be used for training. If you have selected 'Learn Mask' or "
|
||
"'Penalized Mask Loss' you must select a value other than 'none'. The "
|
||
"required mask should have been selected as part of the Extract process. If "
|
||
"it does not exist in the alignments file then it will be generated prior to "
|
||
"training commencing.\n"
|
||
"\tnone: Don't use a mask.\n"
|
||
"\tbisenet-fp_face: Relatively lightweight NN based mask that provides more "
|
||
"refined control over the area to be masked (configurable in mask settings). "
|
||
"Use this version of bisenet-fp if your model is trained with 'face' or "
|
||
"'legacy' centering.\n"
|
||
"\tbisenet-fp_head: Relatively lightweight NN based mask that provides more "
|
||
"refined control over the area to be masked (configurable in mask settings). "
|
||
"Use this version of bisenet-fp if your model is trained with 'head' "
|
||
"centering.\n"
|
||
"\tcomponents: Mask designed to provide facial segmentation based on the "
|
||
"positioning of landmark locations. A convex hull is constructed around the "
|
||
"exterior of the landmarks to create a mask.\n"
|
||
"\tcustom_face: Custom user created, face centered mask.\n"
|
||
"\tcustom_head: Custom user created, head centered mask.\n"
|
||
"\textended: Mask designed to provide facial segmentation based on the "
|
||
"positioning of landmark locations. A convex hull is constructed around the "
|
||
"exterior of the landmarks and the mask is extended upwards onto the "
|
||
"forehead.\n"
|
||
"\tvgg-clear: Mask designed to provide smart segmentation of mostly frontal "
|
||
"faces clear of obstructions. Profile faces and obstructions may result in "
|
||
"sub-par performance.\n"
|
||
"\tvgg-obstructed: Mask designed to provide smart segmentation of mostly "
|
||
"frontal faces. The mask model has been specifically trained to recognize "
|
||
"some facial obstructions (hands and eyeglasses). Profile faces may result in "
|
||
"sub-par performance.\n"
|
||
"\tunet-dfl: Mask designed to provide smart segmentation of mostly frontal "
|
||
"faces. The mask model has been trained by community members and will need "
|
||
"testing for further description. Profile faces may result in sub-par "
|
||
"performance."
|
||
msgstr ""
|
||
"Маска, которая будет использоваться для обучения. Если вы выбрали 'Learn "
|
||
"Mask' или 'Penalized Mask Loss', вы должны выбрать значение, отличное от "
|
||
"'none'. Необходимая маска должна быть выбрана в процессе извлечения. Если "
|
||
"она не существует в файле выравниваний, то она будет создана до начала "
|
||
"обучения.\n"
|
||
"\tnone: Не использовать маску.\n"
|
||
"\tbisenet-fp_face: Относительно легкая маска на основе NN, которая "
|
||
"обеспечивает более точный контроль над маскируемой областью (настраивается в "
|
||
"настройках маски). Используйте эту версию bisenet-fp, если ваша модель "
|
||
"обучена с центрированием 'face' или 'legacy'.\n"
|
||
"\tbisenet-fp_head: Относительно легкая маска на основе NN, которая "
|
||
"обеспечивает более точный контроль над маскируемой областью (настраивается в "
|
||
"параметрах маски). Используйте эту версию bisenet-fp, если ваша модель "
|
||
"обучена с центрированием 'head'.\n"
|
||
"\tcomponents: Маска, разработанная для сегментации лица на основе "
|
||
"расположения ориентиров. Для создания маски вокруг внешних ориентиров "
|
||
"строится выпуклая оболочка.\n"
|
||
"\tcustom_face: Пользовательская маска, созданная пользователем и "
|
||
"центрированная по лицу.\n"
|
||
"\tcustom_head: Созданная пользователем маска, центрированная по голове.\n"
|
||
"\textended: Маска, разработанная для сегментации лица на основе расположения "
|
||
"ориентиров. Выпуклый корпус строится вокруг внешних ориентиров, и маска "
|
||
"расширяется вверх на лоб.\n"
|
||
"\tvgg-clear: Маска предназначена для интеллектуальной сегментации "
|
||
"преимущественно фронтальных лиц без препятствий. Профильные лица и "
|
||
"препятствия могут привести к снижению производительности.\n"
|
||
"\tvgg-obstructed: Маска, разработанная для интеллектуальной сегментации "
|
||
"преимущественно фронтальных лиц. Модель маски была специально обучена "
|
||
"распознавать некоторые препятствия на лице (руки и очки). Профильные лица "
|
||
"могут иметь низкую производительность.\n"
|
||
"\tunet-dfl: Маска, разработанная для интеллектуальной сегментации "
|
||
"преимущественно фронтальных лиц. Модель маски была обучена членами "
|
||
"сообщества и для дальнейшего описания нуждается в тестировании. Профильные "
|
||
"лица могут иметь низкую производительность."
|
||
|
||
#: plugins/train/_config.py:597
|
||
msgid ""
|
||
"Apply gaussian blur to the mask input. This has the effect of smoothing the "
|
||
"edges of the mask, which can help with poorly calculated masks and give less "
|
||
"of a hard edge to the predicted mask. The size is in pixels (calculated from "
|
||
"a 128px mask). Set to 0 to not apply gaussian blur. This value should be "
|
||
"odd, if an even number is passed in then it will be rounded to the next odd "
|
||
"number."
|
||
msgstr ""
|
||
"Применить размытие по Гауссу на входную маску. Дает эффект сглаживания краев "
|
||
"маски, что может помочь с плохо вычисленными масками и дает менее резкий "
|
||
"край предугаданной маске. Размер в пикселях (вычисленно из маски на 128 "
|
||
"пикселей). Установите 0, чтобы не применять размытие по Гауссу. Это значение "
|
||
"должно быть нечетным, если передано четное число, то оно будет округлено до "
|
||
"следующего нечетного числа."
|
||
|
||
#: plugins/train/_config.py:611
|
||
msgid ""
|
||
"Sets pixels that are near white to white and near black to black. Set to 0 "
|
||
"for off."
|
||
msgstr ""
|
||
"Устанавливает пиксели, которые почти белые - в белые и которые почти черные "
|
||
"- в черные. Установите 0, чтобы выключить."
|
||
|
||
#: plugins/train/_config.py:620
|
||
msgid ""
|
||
"Dedicate a portion of the model to learning how to duplicate the input mask. "
|
||
"Increases VRAM usage in exchange for learning a quick ability to try to "
|
||
"replicate more complex mask models."
|
||
msgstr ""
|
||
"Выделить частичку модели обучению тому, как дублировать входную маску. "
|
||
"Увеличивает использование видеопамяти в обмен на обучение быстрой "
|
||
"способности попытки переделывать более сложные маски."
|