У меня так вообще GTX 950. Хотя она ещё вполне себе тянет.
А что у нее по памяти, кстати? 2 гига или 4 (подозреваю, что есть такие версии - у меня раньше GTX 760 была именно в версии с 4 гигами памяти, причем это был не MARS - мог взять, но решил фигней в виде SLI на одной плате не развлекаться)? Если 4, то вполне можно и с нейросеткой поиграться (на двух гигах это "как встретить динозавра, выйдя на улицу - либо встретишь, либо не встретишь": шансы, что сетка запустится, есть, но не особо высокие).
Причем сюжет ME был интересен, но вот геймплей прямо не идет, и всё тут.
Знакомая фигня, на самом-то деле. Геймплей несколько скучноват и не для всех (а вот сюжет действительно хорош - собственно, это меня и подтолкнуло после прохождения трилогии начать здоровенный фанфик). "Андромеда" в теории поприятнее в плане геймплея, на "Масс Эффектом" там и не пахнет: противоречит канону на каждом шагу.
.
.
Сбер создал чат-бота GigaChat. Это аналог ChatGPT, который хорошо знает русский язык
А ChatGPT тоже уже очень неплохо знает русский (и некоторое количество иных языков), сколь я помню. Собственно, пример:
https://www.youtube.com/watch?v=Lw1WrubK5fk&ab_channel=AlexGyverИнтересно, будет бесплатно?
Пока сложно сказать. Подозреваю, что скорее по какой-нибудь подписке (хотя бесплатно потестировать может и можно будет - собственно, сейчас она доступна как Telegram-бот по приглашениям).
лайФАКи
Лайффаки это немного не про то. То, что стопроцентно только так и можно назвать, разбирается на канале "Доктор Дью" на ютубе. Вот там реально ТАКИЕ образцы "лайфхаков" и "самоделок" автору присылают на поглядеть, работает оно или нет, что цензурно просто не назвать. Особенно "веселы" лайфхаки для бензокосы - настолько, что выпуск звался "как стать калекой за 300 рублей" или вроде того...
.
.
И шо деять то для начала
Ну щитожжь... Делаем как-то так:
Шаг первый: идем сюда и скачиваем сам Stable Diffusion (кнопочка Code, там выбираем Download ZIP):
https://github.com/serpotapov/stable-diffusion-portable Версий существует несколько, но с этой проще всего - не нужно для установки самой нейросетки скачивать дополнительные программы - фактически, это билд на базе версии, которая таких "развлечений" как раз требует, просто эти самые "развлечения" туда встроены и не нужно дополнительных телодвижений.
Шаг второй: учитывая, что оперативки аж 32 гига, то можно ничего не закрывать (это у меня 8 гигов всего, так что при открытом браузере установка несколько раз падала и приходилось качать заново - кстати, на случай, если установка упадет по какой-то причине, советую либо ZIP-файл, либо итог распаковки отдельно куда-то отложить: адекватно продолжить установку с того же места оно не умеет, приходится все с нуля): просто кидаем папку, получившуюся по итогу распаковки, как можно ближе к корню диска (самый простейший вариант - собственно, в корень диска и кинуть) и тут повнимательнее: ни в названии папки, ни в пути к ней (собственно, не только из-за длинных названий файлов, но и из-за этого лучше папку прямо в корне диска и делать) не должно быть русских букв, только латиница. У меня, например, папка обозвана как "stable-diffusion-portable-main" для узнаваемости, все прекрасно работает, но вообще можно оставить и название по умолчанию - все будет работать. Сделали это все - запускаем файл "webui-user-first-run.cmd" и тупо курим бамбук - даже при довольно быстром интернете минут 15 установка займет наверняка (один из скачиваемых файлов - собственно, именно на его распаковке у меня установка и билась из-за недостатка памяти при запущенном браузере - весит 2,3 гига).
Шаг третий: скачиваем модели. В роли базовой можно смело использовать вот эту:
https://civitai.com/models/4823/deliberate Она весьма и весьма неплоха, хотя не для всех вариантов использования достаточна. Но при желании позволяет делать, например, такое (взято из примеров к модели, сам пока в таком духе и близко не развлекался, запрос там длинный весьма):

Играемся с нейросетками - MidJorney, Stable Diffusion и прочие.
Так как одной базовой модели, скорее всего, будет мало (хотя кто знает - зависит от личных пожеланий, собственно), качаем с того же сайта либо с
https://huggingface.co (ошибки нет, оно именно .co, не .com) еще каких-нибудь на свой вкус, какие нравятся по превью (с превью, конечно, на civitai получше). Базовые (!) модели мы закидываем в папку по такому пути: (основная папка SD)/models/Stable-diffusion
Это совсем минимальный минимум, но после этого уже можно начинать развлекаться, пока остальное качается. Да - хоть одну основную модель лучше закинуть в папку до окончания установки, чтобы установочник не ругался на тему "модель не найдена" (совершенно некритично - потом он модель все равно найдет, когда она будет туда закинута - чисто ради "красота по красоте").
Шаг четвертый: скачиваем апскейлер. Так как я уже отметил, что как минимум людей во избежание косяков лучше делать в разрешении по умолчанию - 512*512 - то нужно, разумеется, увеличивать размеры (ибо как-то 512 на 512 это печаль и тоска, ничего толком не разглядеть). Конечно, если планируется в полный рост, то можно и добавить как минимум высоты (скажем, сделать 512*1024), но выходит не всегда корректно (хотя ничто не мешает перегенерить частично или полностью), но полный рост это несколько иной вопрос... и в любом случае понадобится увеличивать. За сим, качаем:
https://huggingface.co/MoveScores18/x4-upscaler-Automatic1111_WebUI/tree/main Качать отсюда можно не все модели - полный комплект скорее для поиграться будет (собственно, я качнул все плюс несколько иных, но, скорее всего, поиграюсь, подберу на свой вкус и сотру остальные, чтобы место не жрали). Основные апскейлеры кидаются по такому пути (если подпапки нет по умолчанию - не помню уже - то создаем): (основная папка SD)/models/ESRGAN
Шаг пятый: скачиваем вспомогательные апскейлеры. Основные апскейлеры неплохо работают в целом, а вот с мелкими деталями у них все уже печальнее. Для мелких деталей больше подходят уже вспомогательные модели, зовущиеся VAE. Я мозг себе особо не долбал и скачал пока только официальные, потом может дополню:
https://huggingface.co/stabilityai/sd-vae-ft-ema и
https://huggingface.co/stabilityai/sd-vae-ft-mse/tree/mainВезде, где есть выбор, скачиваем файлы с форматами либо .ckpt, либо .safetensors, если у модели есть под одним названием и то, и то, лучше качать второй тип. .bin идут лесом, они для Git, который мы не запускаем вообще. VAE закидываем, соответственно, по пути: (основная папка SD)/models/VAE
Шаг шестой (этот уже окончательно необязательным является, это уже кому что хочется): скачиваем вспомогательные модели. Такие модели делятся минимум на два типа - Lora и гиперсети (hypernetworks), закидываются в соответствующие папки все в той же папке models. Lora - классические модели .safetensors/.ckpt, просто чаще всего мелкие, по паре-тройке сотен мегабайт (а порой и сотни-то не наберется). Чтобы они корректно использовались, нужно (помимо включения модели) в запрос вбивать слово, которое является запросом именно для вспомогательной модели - обычно такое указывается в описании модели (во всяком случае на civitai так чаще всего делают, без этого выкладывать вспомогательную модель дурной тон или около того). Гиперсети - в принципе, все то же самое, но формат файла .pt и подключается в другой вкладке.
С расширениями еще толком не разбирался (хотя точно знаю, что, например, с их помощью можно - пускай и с ограничениями - прикрутить эту сетку к фотошопу, что с учетом возможности замены основных моделей весьма приятно), но это уже настолько вспомогательный вопрос, что для меня можно назвать неактуальным (как минимум пока железо не обновлю), да и в большинстве случаев возможностей сетки хватает и так, если разобраться в ней получше и научиться поточнее составлять запросы (ну и если генерить/изменять картинки побольше).
С обучением моделей пока что плюс-минус в общих чертах разобрался только с гиперсетками (с моделями типа .ckpt/.safetensors пока нет, хотя в планах подразобраться, что и как, тоже имеется), но для меня это на неопределенное время чистая теория: для обучения сеток нужно минимум 6 гигов видеопамяти, а у моей видюхи только 4.
При желании можно даже на домашнем компе поднять сервак с доступом снаружи по какому-то личному адресу - например, развлекаться во время поездки в общественном транспорте с телефона/планшета - но с этим пока не разобрался опять же, как и чего.
Собственно, после выполнения шага три и когда установка успешно завершилась, Stable Diffusion уже можно начинать использовать (дополнительные модели, апскейлеры, VAEшки и прочее можно докидывать и в рабочую систему, просто жмякать кнопочку "обновить", чтобы оно увидело появившуюся модель. Запускается элементарно - запускаем файл webui-user (я пару раз открывал, заходя в папку, потом задолбался, сделал ярлык и кинул на рабочий стол), ждем, пока все подгрузится (у меня грузится чуть ли не с минуту, но почти все железо где-то 2014 года - в норме оно сильно быстрее грузиться должно), оно автоматом открывает вкладку в браузере/браузер (если он закрыт), работаем. Окошко консоли, в котором все логи выводятся, можно свернуть, но не закрывать - закрытие вырубает и Stable Diffusion.
Для работы с ней подходит любой браузер на баз Chromium - мозилла, гугл.хром, яндекс.браузер, цент.браузер (собственно, для работы с сетью его и использую, чтобы память не занимать мозиллой с сотней вкладок) и даже стандартный виндоусовский эдж. В случае, если браузером по умолчанию стоит мозилла (в иных, возможно, тоже - не проверял) нейросетка может матюгнуться в стиле "профиль файерфокс не найден" и браузер не открыть. В этом случае сетка все равно запущена (окошко консоли открыто), так что все, что необходимо сделать, это открыть браузер вручную и в адресную строку скопировать данное значение:
http://127.0.0.1:7860/ (адрес всегда идентичен, так что сложностей не будет).
Сеть умеет генерить картинку по текстовому запросу (вкладки txt2img), изменять (img2img - вроде бы перерисовка части картинки (или ее достройка) это как раз про эту вкладку), работать с увеличением (Extras - хотя там не только про увеличение). Остальные вкладки интересны уже когда хочется разобраться подробнее - слияние файлов .ckpt (кстати, там же можно эти самые .ckpt конвертировать в .safetensors), тренировка сеток (в том числе и гиперсетей как раз), настройки...
Ну и немного о запросах. Там есть для них два поля: Prompt (верхнее) и Negative prompt (нижнее). Второе поле уже будет автоматически немного заполнено (это как раз уменьшит вероятность появления косяков с конечностями, пальцами и т.п. - если хочется генерить не людей, а что-то другое, поле можно очистить, при следующем запуске все равно все восстановится в это значение по умолчанию), и туда можно (и нужно) вбивать то, чего не хочется видеть на картинке. К примеру, стопроцентно не хочется черно-белую картинку получить, значит добавляем в нижнее поле одновременно (!) b&w и black&white. Тут главное не протупить и не указать в отрицательный запрос "no ...", так как получим, собственно, во всех картинках ровно то, чего видеть не хотим (плавали, знаем - добавил так в один из запросов "no lights on armor" во второе поле, покрутил раз пять и думал, какого черта везде ровно то, чего я не хочу). Добавлять в поле основного запроса (то, что мы хотим видеть) это самое "no ..." можно, но занятие изрядно бесполезное - все, чего видеть не хотим, кидаем во второе поле. Если что-то мы хотим видеть больше (либо генерим, генерим и генерим, а нужного все нет), то указываем так (...:...), где на месте первого многоточия после открывающей скобки тот участок запроса, который хотелось бы видеть сильнее остальных/который не получается, на месте второго идет цифра от 1,1 до 1,4 (выше смысла брать мало, могут пойти косяки (хотя в принципе в пределах 2 пробовать можно, но что получится - понятия не имею), ниже это стандартный запрос, шаг там в 0,1, чем выше - тем больший вес у части запроса), перед и после двоеточия пробелы не нужны.
CFG Scale указывает, как сильно сетке пытаться "импровизировать". По умолчанию стоит не то 7, не то 8, но чем меньше значение, тем выше уровень "импровизации". Это значение меньше 4 лучше не ставить (в принципе я ставил и 3, но порой сетка начинала сильно косячить уже).
Основные модели выбираются в верхней части страницы, в меню Stable Diffusion checkpoint, вспомогательные - под кнопкой Generate центральная, если не ошибаюсь, кнопка (либо вторая справа), там выпадает менюшка "отобразить вспомогательные модели" или типа того (чуть позже гляну, скажу точнее, если нужно), если нажать, то появятся вкладки - Hypernetworks, Lora и еще какие-то две, если я правильно помню. Выбираем интересующую нас модель, вспомогательную модель (если нужно/хочется), вбиваем запрос (на английском, но гугл.переводчик вполне успешно переводит слова для запросов и даже целые запросы), нажимаем сгенерировать. Если видно, что генерируемая картинка явно будет чем-то не тем, можно спокойно прервать генерацию и начать заново. Понравившуюся картинку сохраняем, перетаскиваем в Extras, увеличиваем, выбрав интересующий апскейлер и/или VAE. Можно работать и просто со скачанными из интернета картинками (вроде в img2img), изменяя их на свой вкус.