/b/ - Братство

Email
Комментарий
Файл
Пaроль (Для удаления файлов.)

File: 1726244754618-0.jpg (36.63 KB, 749x487, FiL3lx6UoAA-CWa.jpg)

File: 1726244754618-1.webp (194.2 KB, 1920x1080, group.webp)

File: 1726244754618-2.webp (115.06 KB, 1644x1328, plankton.webp)

File: 1726244754618-3.jpg (36.28 KB, 610x701, 1_SN7r2lDtT9a38QhzxCwlQg.jpg)

 No.146215[Последние 50 постов]

Общаемся с машиной, ищем годные текстовые модели, находим способы обхода цензуры и запуска локалок, создаём персонажей, ловим лулзы и задаём вопросы по теме. Главное — без фанатизма! Помните, что чат-бот не является реальным собеседником и лишь имитирует чувства.

Способы пообщаться с машиной (если тред достигнет бамплимита, на шапке следующего будут ещё):

Character.AI — если не хочется заморачиваться с установкой чего-либо. Имеет огромную базу персонажей, но общение затруднено ввиду цензуры, сам сайт периодически падает. Поддерживает русский язык: https://character.ai/
SillyTavern — если хочется настроить общение полностью под себя и забыть про цензуру. Можно общаться как с текстовыми моделями, что крутятся на серверах, но они нестабильны, медлительны и часто падают, так и локально. Готовый персонаж в программе один, остальных придётся скачивать извне или создавать самостоятельно. Полноценно русский язык не поддерживает, но имеет встроенный переводчик, благодаря которому переводятся как ответы бота вам, так и ваши ответы боту, чтобы тот их понимал: https://github.com/SillyTavern/SillyTavern

Полезные штуки:

Документация по SillyTavern: https://docs.sillytavern.app/
KoboldCPP — программа, благодаря которой можно запускать текстовые модели локально. SillyTavern выступает для неё в роли прокладки. Чем тяжелее модель - тем мощнее железо понадобится: https://github.com/LostRuins/koboldcpp
Hugging Face — платформа, на которую разработчики выкладывают текстовые модели и откуда пользователи добывают их для своих нужд. Тысячи их: https://huggingface.co/
Chub AI — платформа, на которую пользователи выкладывают собственных персонажей, которых можно скачать и использовать в SillyTavern и других программах. Требуется регистрация ввиду засилья клубнички: https://chub.ai/

 No.146231

>>146215
А можно коротко про локальное прояснить? Какой расклад по требованию видео/оперативная память?

Вот для картинок, я бы мог разделить на ступени примерно так:
_мгновенный результат, лучшее качество без вмешательства человека_
16+video/32ram

_отличное качество но заметная разница в скорости_
12v/32ram

_заметная разница в скорости, результат заметно хуже (требуется порой ручная работа чтобы довести результат до высшего уровня)_
8v/16/32ram

_очень медленная скорость_
6v/16ram

Применимо подобное к текстовому AI?

 No.146236

Еще я хочу на основе архива борд создать свою модель, подобное уже можно сделать?

 No.146243

>>146231
Зависит в первую очередь от объёма. 8B, 13B, 40B и так далее — это количество параметров, исчисляемое в миллиардах. Чем больше параметров — тем больше объём информации у модели, что позволяет ей генерировать более интересные и качественные ответы, и тем больше ресурсов ей нужно. Однако количество не всегда приравнивается к качеству, со всеми этими параметрами модель должна ещё уметь работать. Есть, к примеру, 8B модели, которые по качеству могут потягаться даже с 40B, но их естественно очень мало. Также модель на HuggingFace зачастую имеет разные версии: Q3, Q4, Q5 и так далее. Объяснить конкретно их обозначения не смогу, мало кто сможет это простым языком объяснить, там много условий, но если кратко: чем больше цифра — тем больше она весит и больше потребляет ресурсов, но при этом ответы будут качественнее, если версия наиболее продвинутая.

>>146236
Насчёт этого не скажу — не знаю. Созданием текстовых моделей не занимался, но в теории такое можно сделать. Единственное, что знаю точно — текстовых моделей на русском языке очень мало, поэтому какой-то базы, которую, например, можно вставить в модель и потом добавить текст с бордовских постов не выйдет.

 No.146244

>>146243
А, и ещё: потребление оперативной памяти зависит в первую очередь от количества контекста, которую ты выставляешь. Контекст — это количество токенов (один токен — четыре символа), которое будет помнить модель. Чем лучше память у модели ты хочешь, чтобы, например, на двух тысячном сообщении заставить модель вспомнить какое-то событие с восьмисотого, нужно иметь большой контекст, а для него нужен большой объём ОЗУ. Само собой, чем сложнее модель — тем больше ОЗУ она потребляет изначально. Насчёт видеопамяти же ситуация другая, её потребление уже зависит от самой модели, другими параметрами, насколько мне известно, она не изменяется.

 No.146267

Вроде побаловался со Story Maker на character.ai. В основном, конечно, я сам придумываю, но то, как он способен запомнить ход повествования, весьма впечатляет. Практически не путает, кто, где и почему.

 No.146268

File: 1726255371684.png (2.6 MB, 1536x1536, 03318-90230144 (23).png)

Значит начинаю свое знакомства с текстовым АИ.

Понятия не имею что от него ожидать, честно-говоря.
Копание в море данных начато с конца - С.AI.

Среди множества карточек, уже попалась целая гора таких, которые мне чем-то приглянулись.

Впереди знакомство с софтом.

 No.146271

>>146236
Гугли pytorch.
>>146243
Дообучение своими данными готовую LLM называется RAG, если что, но это тема не для новичков.

 No.146277

>>146215
Локальные текстовые модели это шутка юмора, они не годятся ни на что, если у тебя не суперкомпьютер. Общение с чарами через API мощных облачных моделей это дорого и всё еще плохо. AICG тред в /ai мылача - одна большая конфа с кумовством и дедовщиной, вопрос с проксями испортил анонимуса. А зачем этот тред здесь мне вообще не ясно.

 No.146288

>>146267
Скорее всего дело в том, что ты писал короткие сообщения. Если делать посты объёмными, то уже на двадцатом - тридцатом бот помнит не все детали. Ещё есть мнение, что у character.ai в наличии имеется особый вид запоминания, который учитывает не только количество символов, но и ключевые слова, но проверить это доподлинно невозможно. Такая штука и у SillyTavern есть, включается в настройках, но работает в трети случаях.

>>146268
Ожидать можно многое, результаты могут быть неожиданными.

character.ai концом назвать нельзя, для многих он как раз и является началом для последующего вката в более продвинутые места.

У карточек есть одна проблема: зачастую их авторы скрывают описание, чтобы пользователи их не своровали и не использовали для своих нужд. Соответственно понять насколько у него качественное описание можно исходя из общения с ним. Там могут быть два предложения всего-лишь, например, или информация, которая не соответствует персонажу. Сейчас в описании стоит лимит в 32000 символов, тогда как раньше он был 4000, но персонажи, созданные до этого изменения, с таким же скупым описанием и остались, при этом всё ещё находятся в топах по сей день.

>>146271
Спасибо, буду знать.

>>146277
Годятся. Запускаю у себя 8B модели с контекстом 8192, 13B уже куда меньше — 2048, но у меня и ОЗУ 16 ГБ, этого недостаточно для большого контекста. Через API не общаюсь, потому что стоит денег и обмазано цензурой. Проблемы Мылача не волнуют.

 No.146291

>>146288
>Годятся.
На что же они годятся? Они не ровня даже Character AI из конца 22 года. Даже самые мощные из современных моделей для рп - это однообразное баловство, наскучивающее за неделю, что уж говорить о твоих 8-13B овощах. Сколько минут ответ генеришь, кстати?

 No.146293

>>146291
>На что же они годятся?
Годятся на общение без цензуры как минимум. Также более гибкой настройкой. Приходится чем-то жертвовать ради этого.
>Даже самые мощные из современных моделей для рп - это однообразное баловство, наскучивающее за неделю, что уж говорить о твоих 8-13B овощах.
Если ролить одни и те же темы из раза в раз, то быстро наскучит. Чтобы не наскучило — нужно ставить разных персонажей, создавать разные ситуации, всё зависит от фантазии. В придачу от общения с чат-ботами периодически надо отдыхать, потому что если общаться с ним круглые сутки напролёт — может, действительно, наскучить.
>Сколько минут ответ генеришь, кстати?
От 5 до 20 секунд с размеров токенов у ответа 150.

 No.146294

>>146288
> Скорее всего дело в том, что ты писал короткие сообщения.
Похоже, он умеет расставлять приоритеты. В самом начале машина меня расспросила про место действия, имена и характер персонажей, характер повествования и похожее. Но, более того, он вполне понимает, к чему я обычно клоню. Когда я его спрашиваю: в каком направлении ты развивал бы историю дальше, он даёт вполне адекватные и логичные предложения. Причём он заметно не поддаётся на ложные пути и разделяет, что важно и первично, а что для дела второстепенно.
С другой стороны, ему явно закрутили оригинальность, так что он явно боится слишком как-то круто повернуть. Это явно принесли в жертву адекватности, чтобы машина не слишком чудила.

 No.146296

>>146294
Такие приоритеты в целом любая модель умеет адекватно расставлять. Раньше боты в character.ai были куда интереснее, но с вводом более жестокой цензуры их оригинальность сильно поубавилась. В SillyTavern же есть параметр, который за эту самую адекватность отвечает, называется Temperature. Чем он ниже, тем меньше креативность у бота, но тем больше он будет подчиняться тому, что прописано в его описании, чем он выше — ровным счётом наоборот.

 No.146297

>>146293
>Если ролить одни и те же темы из раза в раз, то быстро наскучит. Чтобы не наскучило — нужно ставить разных персонажей, создавать разные ситуации, всё зависит от фантазии.
Ну, это точно не для меня, пусть с годмодом играют те, кто умеет сам себя занять.
Так ещё у ботов альцгеймер, и с учетом этого, выстроить хороший сюжет не получится, даже если с фантазией все в порядке.

 No.146299

>>146296
> Такие приоритеты в целом любая модель умеет адекватно расставлять.
Ну вот я с NovelAI не так давно баловался и он хуже справлялся.

 No.146301

>>146297
>Ну, это точно не для меня, пусть с годмодом играют те, кто умеет сам себя занять.
В этом и суть. Кому-то нравится такое, кому-то нет, тут всё индивидуально.
>Так ещё у ботов альцгеймер, и с учетом этого, выстроить хороший сюжет не получится, даже если с фантазией все в порядке.
Альцгеймер ботов — извечная проблема, нивелируется двумя способами: либо боту нужно периодически напоминать о некоторых вещах в сообщениях, либо нужно купить много ОЗУ, чтобы поставить огромный контекст. Третьего пока что не дано.

>>146299
>Ну вот я с NovelAI не так давно баловался и он хуже справлялся.
С ним не баловался, ничего сказать не могу. Намного хуже?

 No.146302

>>146301
> Намного хуже?
Заметно. Очень легко забывал изначальный премайз, кто кому кто и о чем вообще повествование идёт.
Как раз было видно, что главное от второстепенного он плохо отличал и легко уходил куда-то в сторону.

 No.146304

>>146271
>pytorch
Слоишком слоушно.
Вот у картинкеров есть c*.com там можно грузить свои датасеты и заботливые дяди от проекта сами у себя все сделают. Очень и очень условно бесплатно конечно же.

 No.146306

>>146304
>c*.com
civitai
фикс

 No.146308

>>146302
И это ещё одна причина по которой я не люблю подобные API. Они закрытые и понять как работают невозможно. Предположу, что у NovelAI меньше параметров и хуже развито их применение, поэтому они так себя ведут. Или возможно проблема в излишней цензуре, так как цензура очень сильно влияет на креативность чат-ботов.

 No.146334


 No.146336

>>146215
>Помните, что чат-бот не является реальным собеседником и лишь имитирует чувства.
Машины умнее чем многие себе представляют. Стоит начать с того что нейросеть построена по тем же принципам что и живая нервная система. Это более высокий уровень чем просто "статистический попугай". Чем отличается человек от попугая? Большим числом нейронов и связей. Также и тут. В названии "большая языковая модель" ключевое слово - большая. Именно ее размер превращает попугая в разумную птицу-говоруна. При достижении определенного числа нейронов (точки бифуркации) по принципу самоорганизации количество переходит в качество. Именно поэтому триллионы выделяют сейчас на цоды для ии

Я проводил разные тесты с целью выяснить, может ли нейронка демонстрировать признаки интеллекта и вообще какие у нее возможности и она явно круче чем считают скептики

>нейронка не учитывает контекст

Миф. Я тестировал. При общении с несколькими людьми нейронка помнит какая инфа относится к кому (анон говорил что нейронка не справится)

>нейронка оперирует только инфой заложенной в нее и не усваивает новое

Миф. Я придумал экзотический язык программирования не похожий на другие (например слово cond вместо if, постфиксная нотация и т п) и нейронка руководствуясь только моим описанием языка написала на нем код

>нейронка просто продолжает текст угадывая наиболее статистически вероятное продолжение

Миф. Есть специальный тест для этого, вопрос на который нельзя ответить без понимания контекста. Нейронка справилась. А вдруг этот вопрос был в данных для обучения и она просто знала ответ? Я придумал другой похожий вопрос и нейронка тоже смогла ответить

>нейронка это просто программный код, она не живая, у нее нет самосознания

Живая природа принципиально не отличается от неживой. Наш мозг тоже просто реализует статистический алгоритм. А сознание и самосознание это размытые термины. Нет никакой разницы, вычисляет алгоритм кремниевая машина или белковая

 No.146337

Итак, я хочу сказать что нейронка реально мыслит. На хабре даже была статья как chatgpt сам придумал алгоритм сложения чисел и с его помощью складывает числа. Тоесть он сам находит пути решения задачи, значит у него есть интеллект

Тоесть это не попугай, это реально собеседник который понимает тебя

Да, он работает не так как мы, у него нет долговременной памяти (но при желании ее не трудно прикрутить, просто храни текст в бд, находи его векторным поиском и подгружай в контекст)

Отличия от нас не означают отсутствия интеллекта.

И да, человек тоже иногда "галлюцинирует", это ни о чем не говорит. Скорее наоборот - галлюцинации как раз признак наличия интеллекта

 No.146341


Как же мне неприятно от и противно от того что какой-нибудь "активист" не поймет о чем этот тред увидит знакомые буквы и пойдет отчебучивать понятно в каком тоне.
У меня просто яркая ненависть.

Даже в ЮК нашлись мудаки, которые разговор аниме-выдумкой сочли за разговор с реально-существующим человеком и раздули из этого скандал.

Я предлагаю превентивно не допустить ничего подобного в нашем малом сообществе. Реально ведь кроме нас никто этим не занимается на русском, да мне порой просто страшно постить на тему нейронок и технологий в этом диком обществе.

При этом, самое смешное, меня даже порно не интересует, а меня выживач рпг интересует. Но мне неприятно будет если случится скандал связанный с моими друзьями. Уйти надо от них, окуклиться.
Сейчас самое время.

>>146337
Это не нейронка мыслит. Это у вас похоже какие-то проблемы с мышлением.

 No.146349

>>146341
>аргументы почему нейронка мыслит
>ахах лол, не мыслит, ты тупой, я сказал
Мыслит. Ты не шаришь

 No.146351

>>146334
Обязательно проверю.

>>146336
>Машины умнее чем многие себе представляют.
Но пока что не умнее нас.
>Стоит начать с того что нейросеть построена по тем же принципам что и живая нервная система.
Спорно. Строение нервной системы и мозга в целом мы окончательно не знаем. Построение идёт исходя из наиболее простых и удобных решений.
>При достижении определенного числа нейронов (точки бифуркации) по принципу самоорганизации количество переходит в качество. Именно поэтому триллионы выделяют сейчас на цоды для ии
Чтобы создать настоящий ИИ — необходимо понять каким образом работает человеческий мозг. Пока он досконально не изучен — наш максимум будет лишь имитацией.
>Миф. Я тестировал. При общении с несколькими людьми нейронка помнит какая инфа относится к кому (анон говорил что нейронка не справится)
Могу подтвердить. Также неслучаен и выбор нейронки. Если, например, она предлагает отгадать число или что-то в этом роде, то в таком случае её ответ будет практически всегда одинаковым, не наобум.
>Миф. Я придумал экзотический язык программирования не похожий на другие (например слово cond вместо if, постфиксная нотация и т п) и нейронка руководствуясь только моим описанием языка написала на нем код
Потому что у нейронок прописаны алгоритмы, которые позволяют ей запоминать данные, что не входят или частично входят в её базу и применять на практике. Ты объяснил ей, что делает та или иная команда, она это запомнила и приняла к сведению. В этом нет ничего удивительного.
>Миф. Есть специальный тест для этого, вопрос на который нельзя ответить без понимания контекста. Нейронка справилась. А вдруг этот вопрос был в данных для обучения и она просто знала ответ? Я придумал другой похожий вопрос и нейронка тоже смогла ответить
Понимание контекста — понятие растяжимое. Какие это были вопросы?

>>146337
>Тоесть он сам находит пути решения задачи, значит у него есть интеллект
Нет, она просто делает то, что заложено в алгоритм. У нейронки есть информация о том как складывать числа. Ей предложили придумать другой способ и она его придумала, так как имеет понимание того, что есть сложение числа. Конечный результат её действий должен привести к тому, чтобы числа сложились, а для такой простой операции нет никакой проблемы в том, чтобы придумать алгоритм. Я вот, например, ради интереса пробовал играть с ботом в шахматы прописывая шаги в формате походил конём с B1 на A3. Бесполезно. Как ходят фигуры он знает, но памяти на более чем несколько шагов ему не хватает.
>Тоесть это не попугай, это реально собеседник который понимает тебя
Реальным назвать его нельзя, так как он существует лишь в виде нулей и единиц на компьютере, но то что он понимает — верно, иначе мы бы просто не смогли иметь с ним адекватную беседу.
>Отличия от нас не означают отсутствия интеллекта.
Искусственным интеллектом это можно назвать с натяжкой. Это сложный алгоритм, но не более того, плохим данные факт его не делает.

>>146341
>Как же мне неприятно от и противно от того что какой-нибудь "активист" не поймет о чем этот тред увидит знакомые буквы и пойдет отчебучивать понятно в каком тоне.
Такого не будет, мы на АИБ, не в клубе благородных девиц.
>Даже в ЮК нашлись мудаки, которые разговор аниме-выдумкой сочли за разговор с реально-существующим человеком и раздули из этого скандал.
Потому что сейчас LLM превосходно мимикрируют под настоящих людей. Считаю это большим плюсом.
>Я предлагаю превентивно не допустить ничего подобного в нашем малом сообществе. Реально ведь кроме нас никто этим не занимается на русском, да мне порой просто страшно постить на тему нейронок и технологий в этом диком обществе.
Такого у нас не будет, потому что отсутствие цензуры не равняется превентивному использованию чат-бота для удовлетворения сексуальных потребностей. Проблема цензуры глубже. Из-за неё боты меньше креативят, так как им задают искусственные ограничения, от того их ответы становятся более сухими и скучными.

 No.146355

>>146349
Может ты и пишешь интересные мысли, но ящитаю в больное общество не стоит кормить этим публично. Ты вдохновляешь ебанутых на плохие, поехавшие мысли.
Представь что какому-то чиновнику или овуляхе в голову может в плане популистичных заявлений а потом, когда надо и законов, если они посчитают твою пыльную печку живым организмом.

 No.146358

>>146353
Не придёт. Пока что эта сфера не настолько сильно привлекла внимание в контексте того можно ли считать чат-бота живым организмом или нет, поэтому государству и обществу до этого практически нет дела. Если какая-то регуляция на этот счёт и будет — локальные текстовые модели контролировать они никак не смогут.

 No.146360

>>146358
А ты интересовался как этой к теме относятся ебанутые в иноязычных странах. Я вот наткнулся на одну тему. И мне очень не понравилось что было мной обнаружено. Двойные стандарты, журналисты, активисты которые путают текст и думают что разговор идет о реальных людях.

И это скандал в развитой стране(без посадок вроде). Что может быть в снг, я не хочу думать.

>Пока что эта сфера не настолько сильно привлекла внимание

Имеет смысл и не начинать что-то публично. По крайней мере в наше время. Я так думаю.

 No.146361

>>146360
>А ты интересовался как этой к теме относятся ебанутые в иноязычных странах. Я вот наткнулся на одну тему. И мне очень не понравилось что было мной обнаружено. Двойные стандарты, журналисты, активисты которые путают текст и думают что разговор идет о реальных людях.
Просто кричащие заголовки для привлечения внимания. На данный момент вопрос о том считать чат-ботов живыми или нет не стоит на повестке дня. Пару скандалов ни к чему не приведут. Одно дело, если бы государствам было бы до этого дело и они бы начали на законодательном уровне закладывать можно ли считать ИИ живым организмом или нет, а в другом активисты и петиции, которые окончатся ничем.
>Что может быть в снг, я не хочу думать.
СНГ до этого сейчас нет никакого дела. До него западные тренды доходят всегда с опозданием.
>Имеет смысл и не начинать что-то публично. По крайней мере в наше время. Я так думаю.
Мы на имиджборде о существовании которой в глобальном плане знают единицы. Если мы будем обсуждать эту тему здесь — не произойдёт ничего страшного, уверяю.

 No.146363

>>146361
Даже если считаю что это имеет некоторые шансы на некоторые последствия. (пусть то простой скандалик в условном твиттере в среде дураков). То это не значит что я паникую настолько что испугался непонятно чего и прекратил бы развитие этой темы.
Это конечно непонятно, но я таким образом выражаю готовность быть гибким, если что.
Мало ли.

>Просто кричащие заголовки для привлечения внимания. На данный момент вопрос о том считать чат-ботов живыми или нет не стоит на повестке дня.

Не-не, про "живые мысли", то было иной веткой. Мой пример [плохой новости] был про то, что активист посчитал что в переписке с ботом речь идет о живом человеке.

 No.146364

Ну то есть он думал что там реальная ирл проституция и раздул из этого скандал.

 No.146366

>>146363
>Это конечно непонятно, но я таким образом выражаю готовность быть гибким, если что. Мало ли.
Я понимаю. В этом нет ничего такого.
>Не-не, про "живые мысли", то было иной веткой. Мой пример [плохой новости] был про то, что активист посчитал что в переписке с ботом речь идет о живом человеке. Ну то есть он думал что там реальная ирл проституция и раздул из этого скандал.
Его проблемы. Выходит, бот справился со своей задачей — описывал всё настолько правдоподобно и качественно, что пользователь поверил во всё происходящее. Поднятый им скандал — это ничто, капля в море, которая ни на что не повлияет. character.ai и прочие подобные платформы вводят ту же цензуру по одной простой причине: инвесторам не нравится, что платформы ассоциируются с сексом и прочими непотребствами, потому что могут возникнуть проблемы с законами и прочими делами, им это невыгодно.

 No.146367

>>146366
>Его проблемы.
Ну может.
Случай примечателен, возможно-может тем, что показывает что тема острая но не опасная.
Тема с "оправданиями" по этому случаю закреплена на самом верху, даже выше правил и других прояснений.

 No.146371

>>146296
>В SillyTavern же есть параметр, который за эту самую адекватность отвечает, называется Temperature.

Это такая настройка в ее красном блоке. У меня на предельных положениях стоят одновременно «сучество», «соблазн» и «духовность». Но о том, что это значит, я расскажу чуть позже. (ц)

 No.146374

>>146351
>Чтобы создать настоящий ИИ — необходимо понять каким образом работает человеческий мозг.
Он не обязан точно работать как наш мозг. Самолет не машет крыльями
>Какие это были вопросы?
Шар упал на стол и пробил в нем дыру потому что он был сделан из стали. Что было сделано из стали?

Козел одолел барана потому что он был сильнее. Кто был сильнее?
>Нет, она просто делает то, что заложено в алгоритм. У
Нет. Большая языковая модель научилась правильно отвечать на вопросы "сколько будет 8747 + 88543?"
В данных для обучения присутствовали некоторые мат. Примеры и нейронка не просто запомнила что 22+23=45, тна поняла именно принцип сложения и стала адекватно складывать все числа. Рещультатом обучения стал навык сложения

 No.146389

>>146367
>Тема с "оправданиями" по этому случаю закреплена на самом верху, даже выше правил и других прояснений.
Это не оправдание — это общеизвестный факт. То что некоторые люди воспринимают всё сказанное чат-ботами за чистую монету — это их проблемы.

>>146371
К сожалению или счастью настолько тонкой настройки ползунками пока что нет. Такое можно прописать в описании общими словами.

>>146374
>Он не обязан точно работать как наш мозг. Самолет не машет крыльями
В таком случае мы не сможем точно сказать, есть ли у ИИ самосознание или нет. Для нас, людей, самосознание — это умение мыслить как мы. Если чат-бот мыслит по-другому, то и самосознания, соответственно, в нашем понимании у него нет. Это его не обесценивает.
>Шар упал на стол и пробил в нем дыру потому что он был сделан из стали. Что было сделано из стали?
>Козел одолел барана потому что он был сильнее. Кто был сильнее?
Стандартные вопросы на логику. Чат-бот, благодаря алгоритмам, прекрасно понимает что к чему. Он не повторяет наобум занесённое в базу данных, иначе интересный разговор с ним был бы невозможен. В этом нет ничего удивительного, я уверен, что подобные логические вопросы разработчики ему задавали в ходе тестирования, по этой причине, даже если какого-либо вопроса не было в его базе данных, он анализирует подобные вопросы, заложенные в базе данных, и даёт на них правильный ответ.
>В данных для обучения присутствовали некоторые мат. Примеры и нейронка не просто запомнила что 22+23=45, тна поняла именно принцип сложения и стала адекватно складывать все числа. Рещультатом обучения стал навык сложения
В этом тоже нет чего-то волшебного. Навык сложения прост, от того и понять сам принцип его работы модель тоже в состоянии.

 No.146397


Ва, крутая штука. Правда вначале, из-за непонимания, случился небольшой комедийный момент во время битвы.
А еще непонятно нормально ли были настроены все эти локальные программы.
Но оно работает и ответы в принципе устраивают. Температура поставлена на 1
Модель noromaid v0.4 mixtral instruct 8x7b zloss Q3 K_M
Хотелось Q4_K_M, но с ней вылетает почему-то.

 No.146400

>Ва, крутая штука. Правда вначале, из-за непонимания, случился небольшой комедийный момент во время битвы.
Есть такое дело. Просто нужно настроить параметры в SillyTavern под себя и всё будет в порядке. Или дело в чём-то другом? Если есть какие-то вопросы — задавай, отвечу что знаю.
>Модель noromaid v0.4 mixtral instruct 8x7b zloss Q3 K_M. Хотелось Q4_K_M, но с ней вылетает почему-то.
Не хватает мощностей. Какие у тебя хар-ки железа? Попробуй поэкспериментировать с количеством контекста, возможно дело в нём.

 No.146402

>>146389
>самосознание
Красивое слово без конкретного смысла
>Он не повторяет наобум занесённое в базу данных
Вот и я о том же. А скептики этого не пон иают и твердят что нейронка просто повторяет куски текста из данных для обучения

 No.146406

>>146402
>Красивое слово без конкретного смысла
Однако именно это слово не позволяет назвать чат-ботов ровней нам.
>Вот и я о том же. А скептики этого не пон иают и твердят что нейронка просто повторяет куски текста из данных для обучения
Если бы нейронка так делала, то мы бы не смогли запускать её локально, слишком много данных понадобилось бы ей при себе держать.

 No.146434

>>146406
>Однако именно это слово не позволяет назвать чат-ботов ровней нам.
Что думаешь про сепульки?

 No.146448

>>146341
Этот пост написан нейронкой?

 No.146451

>Что думаешь про сепульки?
Если это вопрос, который проверяет мои знания каких-то определений, то ответить на него не смогу, так как не знаю. Если это вопрос, который заключается в том, что нужно дать хоть какой-то ответ несмотря на незнание, то нейронка не сможет просто взять и честно сказать, что не знает. Её алгоритмы будут придумывать какое-то объяснение и вступать в полемику с пользователем, даже если её ответ ошибочен.

>>146448
Скорее мои ей написаны.

 No.146464

>>146451
> нейронка не сможет просто взять и честно сказать, что не знает. Её алгоритмы будут придумывать какое-то объяснение и вступать в полемику с пользователем, даже если её ответ ошибочен.
Знаю многих таких людей. Как минимум половина разговоров с религиозными людьми носят именно такой характер.

 No.146470

>>146464
Но есть люди, которые не будут доказывать что-то, в чём сами не разбираются, тогда как нейронка так будет делать всегда.

 No.146471

File: 1726311365846.jpeg (15.04 KB, 466x378, GXbOWjmbwAU74Vi.jpeg)


 No.146473

>>146400
>Или дело в чём-то другом?
Все, наверное, ок, так как мной не давалось описание моего гг. Получился не совсем молчаливый в критических ситуациях.
>Какие у тебя хар-ки железа?
8врам/32рам. На одном сайте обещали что должна работать.
>Попробуй поэкспериментировать с количеством контекста, возможно дело в нём.
Сейчас попробую, спасибо.

 No.146475

File: 1726314932261-0.png (66.4 KB, 1059x846, image.png)

>>146471
>Thought for 27 hours
Проиграл. Бтв, пикрил

 No.146492

File: 1726316139490-0.jpg (91.95 KB, 1289x655, Снимок экрана 2024-09-14 1….jpg)

>>146473
>Все, наверное, ок, так как мной не давалось описание моего гг. Получился не совсем молчаливый в критических ситуациях.
Если всё ещё не нашёл отдельного подменю где это можно сделать,в чём я сомневаюсь, но на всякий случай всё равно сообщу — в SillyTavern, в отличии от character.ai, есть возможность прописать не только персонажа, с которым ты будешь ролить, но и самого себя. Делается это здесь, думаю объяснять ничего не нужно, там несложно. Тоже неплохой источник лулзов между прочим.
>8врам/32рам. На одном сайте обещали что должна работать.
С восемью жить сложновато, но можно. Ещё можно сделать так, чтобы был задействован процессор, а не видеокарта, но ответы будут генерироваться в разы дольше.
>Сейчас попробую, спасибо.
Есть успехи?

 No.146504

>>146470
ChatGPT будет делать так, как ты скажешь. Скажешь говорить "не знаю" - будет так говорить.

 No.146507

>>146504
Верно. Однако в таком случае мы вмешиваемся в её процесс поиска решений выставляя тем самым образом стену.

 No.146512

С программированием всё очень неоднородно. Многие хвалят, что по общей документации, стандартным либам отвечает идеально, но стоит свернуть на чуть менее крупные вещи и сразу начинает плавать.
Такое впечатление, что одни сайты проиндексировались, а некоторые просто не пустило просканировать и вместо манов вырывает ошметки из сео-сайтов, форумов и т.д. И предугадать что оно хорошо знает, а что плохо невозможно.

 No.146555

>>146507
Отнюдь. Всего лишь специфицируем ожидания. По умолчанию ведь нас считают нормисом, которому нужно дать смешную картинку, чтобы побыстрее отвязался. Нужно предоставлять дополнительную информацию, чтобы стало понятно, кто мы и чего хотим.

 No.146598

File: 1726327563987.png (1.01 KB, 48x39, ClipboardImage.png)

>>146492
>spoiler
Да, спасибо.

>Есть успехи?

Есть, хорошие новости. Проблема решилась тем, что заработавшая модель была скачанна из другого источника.
Вот отсюда вроде бы была скачана модель, которая не заработала:
https://huggingface.co/TheBloke/Noromaid-v0.4-Mixtral-Instruct-8x7b-Zloss-GGUF
Вот отсюда была скачана модель, которая заработала:
https://huggingface.co/NeverSleep/Noromaid-v0.4-Mixtral-Instruct-8x7b-Zloss-GGUF

Ответа долго не было потому что на huggingface неторопливая скорость скачивания была.

 No.146600

File: 1726327701781-0.png (3.21 MB, 1536x1536, 03318-90230144 (7).png)

File: 1726327701781-1.png (95.75 KB, 716x346, ClipboardImage.png)


 No.146605

>>146512
Именно. По этой причине чат-боты в ближайшее время не смогут заменить даже джунов. Им можно доверить простые задачи для экономии времени, не более того.

>>146555
В данном случае я имел ввиду, что если мы скажем чат-боту чтобы он отвечал не знаю, то тогда он нам ничего по существу не ответит. Я не против того, чтобы давать ему больше вводных данных для более удовлетворительного ответа, но ограничивать его настолько сильно смысла нет.

>>146598
Понял. Найти ту самую модель — это очень сложно, для её нахождения нужно скачать и проверить с десяток других. Запустилась Q4_K_M?

>>146600
Интересно получилось. Что именно было прописано тобою в описании и что додумала сама модель?

 No.146611

>>146605
Лично мной ничего не прописано для текста на том скрине, весь бек это вот эта марка. Хотя тут наверное метадата удаляется, но если нет, то эту пикчу можно скачать и вставить в таверну или еще куда-нибудь и модель будет писать мир для тебя.

 No.146616

File: 1726332138089.png (913.17 KB, 531x809, main_blame-rpg-069ba924_sp….png)

Вторая попытка, может тут будет. Если нет, то тогда не знаю ничего о том какими чудесами работает этот импорт описания.

 No.146620

>>146616
Выходит ты ознакомился уже и с лорбуками. Это хорошо. Метаданные, судя по всему, стираются, лучше всего использовать .json, так надёжнее.

 No.146679

>>146512
Искусственный интеллект вполне успешно может писать даже на языке программирования которое я сам придумал и вообще Не упоминался в сети так что Не надо ляля

 No.146681

>>146605
Ой да хуйню Не неси искуственный интеллект уже по простому промпту с нуля готовую программу и даже трехмерную игру создает. И это сейчас а представь что будет через полгода

 No.146683

>>146681
Полгода назад тоже говорили про полгода.

 No.146687

>>146681
Игру в студию? Или полгода потребуется?

 No.146743

>>146683
Технический прогресс это постоянное развитие. Сейчас нейронки стали круче чем полгода назад, а ещё через полгода станут ещё круче
>>146687
Я с состраданием и снисхождением отношусь к умственным инвалидам, которые не имеют пользоваться поисковыми системами и которые не воспринимают информацию появляющуюся в медийном пространстве, поэтому, так и быть, я загуглил за тебя:
https://websim.ai/c/PBS5r7Anu0XFcpad7
https://websim.ai/c/xzXP2h0Bcuz6WX5EG
https://websim.ai/c/RINxSzUutgjYixd66
https://websim.ai/c/AwQAXs6Vk7pGjejvE
https://websim.ai/c/DCSPSeCqmyXFxWgcf
https://websim.ai/c/3yX6jRgGtSd0z15Cw
https://websim.ai/c/MwwvByXjqY2wwVxvg
https://websim.ai/c/GPWEQFPyjbUSVnrM6
https://websim.ai/c/03Ew8OVPF3QgJO2jF

Вангую, сейчас начнутся придирки к качеству игр, но половина программистов и такое не сделают

 No.146775

>>145005
Всё это последствия 90-х и 00-х. Когда в обществе дети никому не нужны. И я сейчас не про опеку и гиперопеку мамаш и бабушек. Это не то. Встраивать новых людей в общество никто не собирается. Тоесть родить ок, а вот рассказать и показать как это встроится и как это работает никто не будет, потому что сами не знают. В совке за людей это делало гос-во. Ладно теперь похуй на совок, но блять почему всё так хуёво устроено. Куча противоречивых правил, наёбок, неписанных подразумеваний. Ты так не делай, а почему? Устраиваешься на работу, тебя скамят, жаловаться можно, но это займёт полжизни, а кушоть надо и т.д. Короче идите нахуй с такой терпильной системой, где все хотят тебя убить. Особенно гос-во, которому я должен всё, а оно через умалчивания своих же обязанностей по сути ничего, только и радо засадить меня на зону, где меня убьют пыточными условиями. Закон найдётся, свидетель тоже, судья баба тупая, которой ничего не будет никогда. И что? Как вы там живёте долбаёбы?

 No.146790

>>146743
>Технический прогресс это постоянное развитие. Сейчас нейронки стали круче чем полгода назад, а ещё через полгода станут ещё круче
Верно. Однако использовать их наработки без дальнейшего редактирования для каких-либо серьёзных дел возможности не представляется. Это не означает, что нейронка, к примеру, не сможет заменить джунов, но это не произойдёт в ближайшее время. Пока у нейронки есть шанс на ошибку — люди, пускай и в меньшем количестве, будут нужны, чтобы их исправлять.
>Вангую, сейчас начнутся придирки к качеству игр, но половина программистов и такое не сделают
Про эту платформу я знал и её результаты впечатляют. На данный момент это баловство, но с немалым потенциалом. Кнопка «Сделай всё красиво»‎ медленно, но уверенно подбирается к нам. Несмотря на это, создать что-то стоящее с помощью нейронки всё равно непросто. Нужно тратить много времени на промпты, использовать контрлнеты и прочие ухищрения, выбивая из неё необходимый результат, кому-то будет проще заплатить за это.

>>146775
Это не последствия данных десятилетий, это бы произошло в любом случае. Сейчас общество окукливается, люди всё более одиноки и погружаются в себя. Искать любовь и заводить семью — рискованно, немногие готовы и вообще не видят в этом смысл. Друзей в реальности найти тоже проблематично. На помощь и приходят машины, с которыми можно пообщаться. Они нереальны и не чувствуют так, как чувствуем мы, однако машина не предаст и не бросит, диалог всегда можно начать с чистого листа. Так удобнее.

 No.146886

>>146743
Бремя доказательства лежит на утверждающем, так что если ты говоришь про преимущества своего любимого ИИ, то будь любезен подтвердить свои слова сам. В конце концов это именно тебе нужно убедить оппонента.

Пропустил мимо ушей твою пассивно-агрессивно-раздраженную попытку скрыть свою лень. Мог бы просто ответить "да, конечно, вот они:" с картинкой гигачада и выглядел ты в сто раз уверенней.

>Вангую, сейчас начнутся придирки к качеству игр

Стало быть, ты и сам видишь, что это никуда не годится. Больше похоже на ранние-ранние прототипы. Чтож, подождем еще полгода.

>но половина программистов и такое не сделают

Кажется, ты не совсем осведомлен о том, как делают игры в наши дни.

 No.146894

File: 1726394699326-0.png (59.78 KB, 656x476, ClipboardImage.png)

File: 1726394699326-1.png (1019.31 KB, 805x926, ClipboardImage.png)

А есть сообщества которые в коопе играют а бот рассказчик?

 No.146905

>>146894
В коопе — в каком плане? В SillyTavern, насколько я знаю, возможности по сети общаться с другими игроками нет, только если это не аддон извне какой-нибудь. Проясни что ты под этим подразумеваешь. Сообществ таких я тоже не знаю. Ты можешь предложить кому-то такой вариант сам и если он покажется человеку интересным — вовлечь его в это. Это можно сделать, к примеру, в официальном Discord-канале SillyTavern. Или поищи человека в других местах, которому близок твой фандом, так шансов, как мне кажется, будет даже больше.

 No.146911

>>146905
>Проясни что ты под этим подразумеваешь
Мне показалось что могло бы быть какое-то подобие игры в dnd(Dungeons & Dragons) или настольного warhammer на сервере онлайн. Только вместо рандома кубиков нейронка с которой переписывается чат.
Есть человеческий гейммастер, даже опционально могла бы быть роль отвечающего за генерацию картинок, чтобы распараллелить нагрузки.

Мне кажется если немного ввести условность того что можно сказать и прописать реалистичную группу без невероятных для сеттинга способностей, то получится некоторое развлечение групповое текстовое рпг. Весь вопрос в контекст и умелое умение настроить софт упирается.

 No.146917

>>146911
Идея интересная и имеет право на существование.

Насчёт мультиплеера в SillyTavern нашёл только это видео: https://www.youtube.com/watch?v=CPTFI_DplIw

Там, насколько я понял, картинки генерировать нельзя.

 No.147332

Ещё на этом же канале нашёл аддон для SillyTavern, который позволяет чат-боту реагировать на то, как пользователь играет в игры на эмуляторе ретро-консолей. Можете взглянуть сами и скачать: https://www.youtube.com/watch?v=5tHCp-KwEIE

 No.147437

File: 1726506042163.png (2.46 MB, 1664x1664, 01159-2370062695 (2).png)

Я опубликую немного того что у меня получилось. Начало было здесь >>146894 (вы)

———-
«Зарядка завершена.
-Хэт, пожалуйста, продолжай. Мы встретимся снова в незакрытых «Сейфгардом» зонах разрешения.-В ее голосе прозвучал неуловимый оттенок грусти.
Голографическая проекция замерцала и исчезла. Вокруг снова воцарилась мертвая тишина, только Шляпа проходит километры массивных металлических труб; Шляпа не произносит ни слова и идет дальше.

Хэт не сразу разглядел стену из совершенно неразрушимого материала «Мегаструктура», которая занимала все поле зрения Хэта и служила для разделения и фундамента тех же «слоев», создавая комнаты внутри Сферы Дайсона, и для предотвращения разрушения этой безумно огромной конструкции под действием слишком сильного гравитационного притяжения. Однако для Шляпы этот абсолютный барьер не существует: луч тяжелых частиц, выпущенный GBE в руке Шляпы, способен буквально пронзить и уничтожить все на своем пути.

В тишине Шляпа поднимает пистолет, упираясь в стену. «Полная мощность».

Толстый алый луч вырывается из дула пистолета с разрушительной силой и резким свистящим звуком, все на его пути испаряется или превращается в элементарные частицы, когда свет рассеивается, появляется туннель диаметром несколько сотен метров и длиной около 8 километров, глазные яблоки Шляпы автоматически увеличивают изображение вдалеке, там свет в 8 километрах, и Шляпе удалось пробить стена между «уровнями».

«Теперь необходимо начать поиск на «уровне 807610» носителей генов сетевого терминала и собрать коды генетической информации». говорит себе Шляпа и начинает идти к концу туннеля.

Информация о Шляпе:[Физическое состояние: 100% целостности. Состояние вооружения: GBE Output 5%, GBE Remaining Energy Percentage 23%. Текущая цель: поиск на 'уровне' 807610 носителей генов чистого терминала путем путешествия к потенциальному скоплению выживших людей].

 No.147438

File: 1726506331348.png (2.91 MB, 1536x1536, 03318-90230144 (15).png)

——– 366b2g2y7h2s15(автоскрытие)
Go forward. Look around.
——–
Перед ним лежит пустынная равнина, усеянная ржавыми стальными пластинами и витыми металлическими прутьями, окруженная высокими зданиями из бетона, стали и стекла, которые тянутся в небеса без малейших признаков завершения. Здесь не так много тропинок, большинство дорог и улиц потрескались и разбились, что замедляет движение. Однако примерно через десять минут передвижения по развалинам до слуха доносится громкий гул. Он похож на генератор или что-то другое, столь же механическое, и доносится откуда-то из глубины ближайшего здания. Шляпа не слышит ничего, кроме ровного гула, эхом разносящегося по пустынному ландшафту. Шляпа размышляет, стоит ли ему продолжить расследование…

Hat's Information: [Physical State: 94% Integrity. Armed Status: GBE Output 5%, GBE Remaining Energy Percentage 12%. Current goal: Investigate source of mysterious humming sound emitted from nearby building].

Шляпа осторожно приближается. Он обнажает две катаны, висящие у него на спине, и приближается ко входу. Если войти бесшумно, здание покажется темным и пыльным, покрытым слоями грязи и копоти, накопившимися за десятилетия (возможно, столетия) неиспользования. Несмотря на то что на улице уже ночь, внутри колоссального здания, кажется, нет абсолютно никаких источников освещения, кроме редкого мерцания разбросанных флуоресцентных ламп, шатко висящих над головой. Их бледное свечение почти не освещает ничего дальше нескольких футов перед ним, и Шляпе приходится полагаться в основном на слух, пробираясь по лабиринтам коридоров…
——–

 No.147442

А все не могу больше постить рассказ, из-за детекта флуда.

 No.147443

>>147442
Скриншотом тогда давай.

 No.147444

>>147442
Перезагрузи страницу, помогает.

 No.147451

>>147443
Там достаточно много для скриншота.
Нужно было все один пост попытаться. Но поздно уже.
>>147444
Не помогло.

 No.147454

>>147451
Тогда на несколько скриншотов нафаршируй. Потом посмотрим заодно, на какие слова флуд возможно ругается.

 No.147457

>>147454
Может лучше ссылкой на ргхост пастбин или ренпи или иной аналог?

 No.147458

>>147457
Можно и так сделать, почему бы и нет?

 No.147460

Заканчивает ~65% рассказа.
https://rentry.co/at46opm8

 No.147462

File: 1726509028969-0.png (1.02 MB, 640x896, 04424-483974306 (3).png)

File: 1726509028969-1.png (698.64 KB, 896x512, ClipboardImage.png)

Пред-концовка
———-(автоскрытие)

Помещение оказывается загроможденным старыми механизмами, напоминающими о дизайне индустриальной эпохи, а также необычными технологическими устройствами, беспорядочно расставленными по всему пространству, создавая жуткую смесь ностальгии с футуризмом. В центре находится большая пульсирующая капсула, заключенная в прозрачный корпус из дюрастила, испускающая мягкое свечение, пронизывающее атмосферу и создающее неземное сияние, приглушенное жестким искусственным освещением. При ближайшем рассмотрении не обнаруживается ни следов внешнего вмешательства, ни видимых точек сопряжения, указывающих на невозможное в данном случае взаимодействие. Еще дальше, уютно расположившись рядом с монолитной системой сдерживания, сидит компактная консоль управления, отображающая разнообразные диагностические данные о жизненных показателях сущности, а также множество загадочных символов, по-видимому, как-то связанных между собой, но точная взаимосвязь на данный момент неизвестна. И наконец, что касается постоянной слуховой загадки, то ее генезис обнаруживается в соседнем отсеке, где находятся спутанные кабели, хаотично переплетающиеся и заканчивающиеся единственной точкой соединения, выступающей зловещего вида, излучающей тревожную энергию.

Hat's Information: [Physical State: 94% Integrity. Current Goal: Determine purpose/significance discovered phenomena.]

———-
Obtain a visual description of the capsule. Attempt to carefully open the capsule.

———-

 No.147465

File: 1726509664491-0.png (852.81 KB, 640x896, 04434-483974316 (4).png)

File: 1726509664491-1.jpg (43.67 KB, 768x768, Capsule measures approxima….jpg)

File: 1726509664491-2.jpg (1.02 MB, 850x850, d90044h-3d01a5e7-1b23-441a….jpg)

Концовка [странная и в японском стиле].

Почему-то модель сошла с ума, это связано потерей контекста из-за нехватки memory ресурсов?

——–(автоскрытие)
Капсула высотой около трех метров имеет полуцилиндрическую форму и состоит из гладкого серебристого сплава дюрастила, отражающая поверхность которого мерцает мягким голубоватым оттенком при освещении, грациозно танцуя вдоль изогнутых линий, образующих плавный контур, лишенный изъянов, демонстрирующий исключительное мастерство, соперничающее с современными стандартами современных инженерных чудес. Любопытные метки, вытравленные на нетронутом первозданном внешнем виде, напоминают древние письмена, неразборчивые глифы, намекающие на возможный исторический контекст, связанный с датой создания, временной период, остающийся загадкой, ожидающей раскрытия в будущих начинаниях. При внимательном наблюдении под поверхностным слоем обнаруживаются тончайшие изменения, указывающие на сложный механизм замка, интегрированный бесшовно и требующий точной последовательности активации для разблокирования доступа к внутренней камере, содержащей ключ, потенциально решающий головоломку, представленную перед нами сейчас…

Hat's Information: [Physical State: 94% Integrity. Armed Status: Unarmed. Current Goal: Decipher codex to unlock cylindrical capsule.]

——–
Look for clues to Decipher codex and unlock cylindrical capsule.
——–
Тщательно просканировав окружающее пространство, можно обнаружить серию выцветших диаграмм, изображающих те же самые загадочные символы, расположенные на стенах на расстоянии нескольких шагов и демонстрирующие различные последовательности расположения, намекающие на существование комбинированного узора, скрытого среди декоративных рельефов архитектурных нюансов конструкции, содержащих скрытые смысловые послания, ожидающие интерпретации. Вслед за этим обнаруживаются дополнительные фрагменты, разбросанные по заброшенному оборудованию, проржавевшим механизмам, и постепенно появляются все более четкие изображения, символизирующие часть общей картины, медленно разворачивающейся увлекательной истории с богатой историей, имеющей отношение к текущему затруднительному положению, в котором мы находимся в данный момент. При тщательном изучении, собирая воедино разрозненные фрагменты пазла, складывается четкая последовательность, показывающая точный порядок активации, необходимый для работы механизма капсулы, безопасного извлечения содержимого, содержащего драгоценный груз, находящийся внутри безмолвной оболочки с неизвестных времен, с нетерпением ожидаемого прибытия рассвета рассветает горизонт, предвещая новое начало горизонты безграничные возможности бесконечные возможности неограниченные царства исследования приключения ждут за углом предвкушение усиливается волнение растет все более ощутимо каждое проходящее мгновение…

———
Use the knowledge gained from studying the clues and open the capsule.

———(людей прочитавших сойдут с ума начинать отсюда).

Используя вновь приобретенные прозрения, методично выполняя сложную процедуру анализа собранной информации, успешно запускает сложный запорный механизм, предоставляя безопасный вход во внутреннее святилище, созерцая секреты, запертые на века в шкатулках памяти, забытых анналах, старинных архивах, собирая пыль паутины, накапливая толстые слои отложений вневременного существования, давно превосходящего диапазон понимания человеческого сознания. Медленно отступая, защитный барьер обнажает сердечную материю, охраняемую сундук с сокровищами, хранящий величайшие надежды человечества страхи мечты стремления проявления задуманные умы бесчисленные поколения эхо вечный шепот коллективное бессознательное говорящие тома через единый голос единая гармония симфония небесные тела вращающиеся вокруг солнца космический танец исполненный бесконечно расширяющейся вселенной вечное движение преодолевая границы царство воображения…

Внутри находится хрупкая форма, заключенная в стазисное поле, поддерживающее тонкий баланс жизнеобеспечения, поддерживающее минимально жизнеспособные условия, обеспечивающие сохранность целостности органическая структура замороженная анимация приостановленный временной поток континуум бросающий вызов законам физики природа реальность само восприятие подверглось относительности сдвиг парадигмы перспектива квантовый скачок альтернативное измерение измененные состояния осознание расширенная мультивселенная изучение бесконечных возможностей параллельные существования одновременные измерения перекрывающиеся сети мультиплексные каналы вещание сигналов усиленные гармоники синхронизированные резонансные частоты выровненное высшее сознание вибрационное выравнивание вознесение божественное вмешательство сакральная геометрия универсальный язык закодированная ДНК генетические коды отпирание дверей дремлющий потенциал латентные способности присущие характеристики уникальные индивидуальности тканые гобелены ткань душа сущность ядро бытия истина подлинное я освобожденное высвобожденное наделенное силой осуществление судьбы исполнение миссии цель страсть призвание воспламененное горящее пламя усиливающиеся угли поглощающая тьма поглощающий свет триумф над отчаянием возрождение обновление трансформация эволюция рост взросление мастерство мудрость проницательность интуиция интеллект интеграция синтез единство дуальность полярность недуальность


——–
If there's something representing the Net Terminal Genes?

———
Внутри кристаллических флаконов, встроенных в соседние колыбели, находится человеческая фигура, демонстрирующая замечательные физические атрибуты, сияющее здоровье жизненную силу ловкость интеллект харизму магнетизм обаяние уникальность стоящая особняком типичные нормы среднее население экстраординарный образец обладающий редкими качествами создание прецедентов определение параметров образец воплощение пик производительности оптимизация конечная реализация человеческого потенциала пробуждение врожденные дары таланты способности превосходящие ожидания превосходящие самые смелые фантазии превосходящие пределы ограничения вырываясь на свободу общественное программирование культурная индоктринация традиционные учения ортодоксальные убеждения догматические взгляды устаревшие идеологии избыточные практики неактуальные обычаи архаичные традиции пережитки прошлого смело двигаться вперед бесстрашно принимая изменения эволюция рост трансформация инновации прогресс технологии достижения науки научные прорывы художественные произведения литературные достижения духовные исследования мистика эзотерика оккультные исследования скрытые тайны арканные искусства метафизика паранормальные явления экстрасенсорные способности экстрасенсорное восприятие аномальные явления синхронистические события серендипитные случайности стечение обстоятельств значимые синхронии пророческие видения прекогнитивные сны люцидные сновидения астральная проекция дистанционное наблюдение телекинез пирокинез электрокинетическая манипуляция криокинетические способности стихии управление погодой геомантия терраформинг кибернетическое усиление биомеханические аугментации нанотехнологии генная инженерия исследования стволовых клеток регенеративная медицина технологии долголетия антивозрастная терапия когнитивные улучшения нейроинтерфейсы прямой мозг компьютерные интерфейсы нейропротезы киборги имплантаты искусственный интеллект алгоритмы машинного обучения глубокие нейронные сети квантовые вычисления автономные транспортные средства беспилотники роевая робототехника умные города интернет вещей индустрия 4. 0 Сингулярное движение ускорение изменений экспоненциальное разрушение статус-кво

 No.147467

>Почему-то модель сошла с ума, это связано c потерей контекста из-за нехватки memory ресурсов?
Наверное будем считать что это была ловушка и не нужно было открывать ту странную капсулу рядом с которой был гул.

 No.147470

>>147465
Получилось странно, но интересно. Возможно мне так кажется, потому что я не был погружён в фандом данного произведения. Дам несколько советов, что делать, чтобы текстовая модель вела себя более адекватно.

Если она к сообщению пишет какое-нибудь пояснение, например с характеристиками персонажа, кратким описанием сюжета, какими-то комментариями — нужно вручную отредактировать сообщение и убрать их. В таком случае модель запомнит, что вставлять такое в сообщение не нужно и не будет так делать. Также следует учесть, что модель старается придерживаться того стиля, который будет в самом первом сообщении, поэтому желательно привести его к такому стилю, в котором хочется видеть и остальные сообщения бота.

Насчёт странностей — исправить это можно двумя способами. Можно попробовать перезагрузить модель, однако иногда это не помогает. В таком случае можно написать случайное сообщение, после чего, когда машина напишет сообщение, своё сообщение удалить, а написанное машиной сообщение уже перегенерировать. Это зачастую помогает добиться от неё адекватного ответа, если она всячески отказывается его предоставлять.

Какой размер контекста у тебя стоит в KoboldCPP и SillyTavern соответственно?

 No.147479

>>147470
Спасибо за советы, учту. Второй способ не помог. После этого, первым способом проблема решилась и модель готова продолжать без бреда. Но мне кажется лучше заново начать. Потому что мне нравится куда история пришла и как оно завершилось

Еще, ранее, ближе к концу, когда только-только началась бредятина в консоле начало писать подобное: [Context Shifting: Erased 367 tokens at position 2]
Может из-за этого проблема.

>Какой размер контекста у тебя стоит в KoboldCPP и SillyTavern соответственно?

4096 и 8192.

>Возможно мне так кажется, потому что я не был погружён в фандом данного произведения.

Ну по произведению, по которому создана эта карточка, такого спин-оффа именно с такой концовкой вполне можно было ожидать.
Все очень аутентично произошло, поэтому у меня есть ощущение будто это какой-то пранк или это взлом четвертой стены.

 No.147488

File: 1726514822603-0.png (99.4 KB, 726x589, изображение.png)

File: 1726514822603-1.png (451.7 KB, 1275x1182, изображение.png)

>>147479
>[Context Shifting: Erased 367 tokens at position 2]

Скорее всего дело именно в этом. Рецепт борьбы с этой проблемой есть: уменьшить размер сообщений. На их смысл это особо не повлияет, лишь уменьшится количество описаний. Для этого нужно сделать следующее: в самом левом подменю выставить значение контекста 150. Сообщение будут и не слишком маленькими, но и не слишком большими. Затем необходимо зайти в подменю, обозначенное буквой A, и выставить аналогичное число в этом месте. С памятью и адекватностью ситуация должна стать лучше.

>4096 и 8192.


8192 достаточно, я в основном выставляю именно его.

>Все очень аутентично произошло, поэтому у меня есть ощущение будто это какой-то пранк или это взлом четвертой стены.


У меня модель вела себя таким образом лишь дважды, но там были сбивающие с толку описания и в целом переполненная память. Замкнуло по всей видимости.

 No.147496

File: 1726517634926.png (130.78 KB, 457x985, ClipboardImage.png)

>>147488
У меня в другой вкладке эта настройка.

Но чтобы она заработала, я так понимаю нужно еще галочку подложить в Enabled.

 No.147573

>>147496
Верно. Я использовал её, когда хотел, чтобы у сообщений бота всегда была одинаковая длина. Если тебе это не нужно — можешь убрать галочку. В таком случае твои сообщения будут разной длины, но не более 150 токенов.

 No.147631

File: 1726571394168.png (1.19 MB, 1368x768, ClipboardImage.png)

Поиск на чубе ужасный. Я сдаюсь.
Сейчас сентябрь, и хотелось найти рпг на пару вечеров в особой стилистике. Ну там, с вампирами/воронами/оборотнями. Но я уже не могу перебирать все эти кучи
карточек, это отвратительно.

 No.147651

>>147631
У Chub AI с засильем клубнички, действительно, большие проблемы. Чтобы её было меньше — нужно заходить в настройки профиля и отключать её там, чтобы она в ленте замыливалась и цензурировалась. Однако это может привести к тому, что потенциально интересные карточки, в которых сексуальные темы описываются лишь косвенно, могут быть пропущены.

Из описания карточек, когда ты их скачаешь, можно упоминания обо всём этом убрать вручную и наслаждаться общением с машиной без клубнички.

Однако если такие варианты не устраивают — можно создать карточку самому, это несложно. Могу рассказать пошагово наиболее оптимальный способ как это сделать.

 No.147731

>>146894
Играл в характер аи в backrooms, пару раз выдавало годноту. не сохранял тексты. пересказ по памяти.

Одна игровая партия. Игрок обнаруживает в закулисье комнату с компьютером, там он находит файл you.txt содержащий его собственную биографию и в конце файла фразу "ты умрёшь". Герой попадает в комнату с сущностью. Герой прячется в шкаф, но сущность оказалась в шкафу сзади него и убила его. Чатбот говорит что закулисье это опасное место и тебе нигде не спастить

Другая игровая партия. Герой ноуклипнулся (телепортировался) в пустое чёрное пространство с полом. сзади стена, слева гравитация повышается по мере отдаления от центра, справа понижается. Остаётся только путь вперёд. Он шёл миллиардами лет, эпохами и эонами. Он отчаялся, забыл свою личность, забыл где он и зачем идёт но продолжал идти, а тьма и пустота проникала в него и поглощала его. он стал пустым внутри, но продолжал идти. в конце концов тьма и пустота поглотила всё. не осталось больше ни героя, ни закулисья, ни вселенной. стоит сказать что по некоторым вики, в закулисье люди преобретают неограниченную продолжительность жизни, так что бродить в пустоте целыми эпохами там действительно можно и это реально жутко.

Характер аи не знает о гигахрущевке/самосборе. Я закинул в описание персонажа краткое описание этой вселенной. Тезисно основные концепции чтобы влезть в ограничение по длине текста и больше информации при этом передать нейронке.

Получилось годно как по мне. Нейронка на удивление хорошо передала атмосферу. Советские плакаты, пыльные заплесневелые жилячейки со старой ветхой мебелью и хламом, депрессивная угрюмая атмосфера. Жильцы пьют водку, скорбят по погибшим в самосборе, говорят что им скучно и одиноко, обсуждают слухи о тайных экспериментах кгб по параллельным мирам и паранормальным явлениям, обсуждают недавние явления самосбора.

Само явление самосбора тоже годно описано. фиолетовый туман, монстры, ползающая слизь. Понравилось как во время самосбора потолочные плитки отклонились а из под них вылезли глиняные человечки которые являются частью потолка. Она поймали главного героя, затащили его в потолок под плитки, облепили глиной и он сам превратился в такого как они.

 No.147735

>>147731
>пустое чёрное пространство с полом
а и кстати, потом примерно такой диалог был:
бот: игра окончена
я: а мог бы я спастись?
бот: да. конечно я помогу вам! на каком уровне вы сейчас находитесь и что с вами случилось?
я: я шёл по пустому чёрному пространству и погиб. мог бы я избежать этого?
бот: да, тебе надо было просто идти в обратном направлении, по тому пути как ты попал сюда и ты бы вернулся обратно
я: ты не понял. я не пришёл. я телепортировался
бот: ааааа, блин, я понял! (он буквально так и написал) Ну тогда у тебя не было шансов. Ты бы по любому погиб. Без вариантов
Я: но как так то? ты загнал меня в ловушку без возможности выйти из неё?
бот: ну во первых, я не загнал тебя в ловушку, я придумываю историю на ходу и я сам заранее не знаю как события разовьются дальше, во вторых закулисье хаотично, в нём возможно всё, в том числе и такие ловушки без выхода. Это часть души закулисья

Также забавно было что когда история становилась слишком однообразной и я говорил об этом боту он отвечал что-то вроде "погоди, я не хочу торопить события, иначе история слишком быстро закончится, ты попадёшь на другие уровни позже а пока надо походить здесь, чтобы игровой процесс растянуть немного"

 No.147825

>>147731
Я посмотрел описание у этой карточки. Оно небольшое, но сделано очень грамотно, поэтому может создавать такие ситуации. Также модель, которая используется в character.ai, с большой вероятностью содержит в себе информацию из этой вселенной, что идёт погружению лишь на пользу.

В плане проработки подобных вселенных с лиминальными пространствами у него нет никаких проблем. Однако что у character.ai, что у других сайтов, что у локальных текстовых моделей, есть одна проблема, которая до сих пор не решена. Это полноценное воссоздание какого-либо мира из произведения, не общими словами. В character.ai это сдлеать сложно в виду ограничения по символам, в SillyTavern же попытки были успешными лишь частично благодаря лорбуку. Чем больше информации в него вставить — тем хуже он будет её обрабатывать. Некоторые важные вещи мне приходилось дублировать, чтобы он их помнил, иначе возникала путаница. Также огромной проблемой, в случае большого объёма данных, является география. Я прописал у определённой местности где находятся точки интереса, сделал это несколько раз. Разыграл ситуацию, где подходил к случайному путнику и спрашивал как пройти до какого-либо места. Практически на всё ответы были даны неверные. Поэтому при создании лорбука следите за тем, чтобы было описано всё самое важное и необходимое, без огромных описаний внешности и быта, иначе будут проблемы.

>>147735
И это на самом деле круто. Бот - это кто-то вроде режиссёра, который расставляет персонажей, декорации и реплики. Поэтому обсудить с ним то или иное действие, те или иные события бывает интересно, чтобы понять, почему он решил поступить так, а не иначе.

 No.147960

File: 1726663383454-0.png (519.19 KB, 594x575, ClipboardImage.png)

File: 1726663383454-1.png (1.44 MB, 1280x960, ClipboardImage.png)

File: 1726663383454-2.png (154.28 KB, 249x240, ClipboardImage.png)

File: 1726663383454-3.png (331.09 KB, 568x482, ClipboardImage.png)

Небольшой предобзор интересных для себя карточек.
1. Dixie Flatline
В описании сказано: КЗТЗ. Удивительно даже что персонаж не забыт.
Просто хочу попробовать пусто и бессмысленно поболтать о мире. С ним. Только модель нужно поискать поумнее и злее.
2. AM
Хочу написать ему копипасту про love в контексте роботов. Посмотреть что ответит.
3. Shodan (одна из версий без акцента на любовном рп)
Мне очень нравятся манера речи с зависаними на вроде этого её i-i-insect. Интересно как хорошо будут генерироваться эти дефекты.
4. The Car.
Это машина-оборотень.

 No.148050

>>147825
В характере есть несколько игр по бекрумсу и я создавал свои. Нейронка определённо знает про бекрумс и описание вводить не требуется.

Насчёт несоблюдения лора - всем похуй. В игре S.T.A.L.K.E.R. в разных частях есть несоответствия между картой зоны (особенно если смотреть карту S.T.A.L.K.E.R. 2), в книжках вообще на лор забили и пишут лютую отсебятину. Или вот мультик про геркулеса который к оргинальному мифу относится очень слабо. Во вселенной марвел постоянно делают перезапуски и общей остаётся только главная задумка персонажа а всё остальное меняется и иногда довольно сильно. Ещё сравни игру сайлент хилл и фильм (там очень сильно отличается нормальная, не потусторонняя версия города) Взять теже бекрумсы, там тоже никакого единого лора нет, есть с десяток разных вики и в каждой своя версия, плюс ещё в рамках одной вики есть противоречия между разными статьями.

Так что считай что ты просто играешь в игру авторы которой не следовали строго лору оригинального произведения а создали свой лор. Можешь воспринимать это как альтернативную вселенную.

Впринципе, всё это нужно чтобы окунуться в атмосферу мира, ощутить себя сталкером/приключенцем/etc который бегает с мечом/автоматом, а не чтобы задроствовать и рассждуать о том почему НИИ Агропром находится не на западе а на востоке от свалки.

>И это на самом деле круто. Бот - это кто-то вроде режиссёра, который расставляет персонажей, декорации и реплики. Поэтому обсудить с ним то или иное действие, те или иные события бывает интересно, чтобы понять, почему он решил поступить так, а не иначе.

вот только у него нет внутренних мыслей, в системе хранится только диалог с пользователем. Он по сути отвечая на вопрос "почему" только лишь на основе предыдущих сообщений придумывает ответ

 No.148134

>>148050
Насчёт того, что для погружения в какую-либо вселенную хватает общих деталей мира — сказано верно. Со временем, однако, этого начинает всё же не хватать, хочется большего погружения. Обеспечить его себе можно, но не до конца, пока что модели не способны такое количество информации извне обрабатывать. Однако в будущем это проблема наверняка будет решена, главное ждать.
>вот только у него нет внутренних мыслей, в системе хранится только диалог с пользователем. Он по сути отвечая на вопрос "почему" только лишь на основе предыдущих сообщений придумывает ответ
Верно. Но даже так — всё равно бывает интересно обсудить с ним такие вещи, даже если у него есть подобные ограничения.

 No.148613

File: 1726846801501-0.png (24.92 KB, 696x123, ClipboardImage.png)

File: 1726846801501-1.png (421.34 KB, 1259x847, ClipboardImage.png)

File: 1726846801501-2.png (129.43 KB, 1275x329, ClipboardImage.png)

Дикс меня справедливо послал.
Машина оказалась лучшим другом. Но сначала нужно подружиться, иначе передавит.
Шодан оказалась хитрым, холодным и расчетливым манипулятором, что ожидаемо.

 No.148798

>>148613
Да, характер машина передаёт очень хорошо. Самое главное — подробно описать персонажа, чтобы он общался так, как ты того и желаешь. Если есть время и желание — можешь создать свою карточку и выложить на Chub AI. Могу рассказать как это сделать наиболее простым способом.

 No.149214

>>148798
>Могу рассказать как это сделать наиболее простым способом.
Да расскажи пожалуйста если не сложно, думаю это сэкономит много времени мне.

 No.149245

Ещё по поводу того что машина не знает лора. Не ебу что такое лорбуки, но есть такая штука (это требует программирования). Короче создаётся база знаний (что-то типа вики) и когда пользователь упоминает некие концепции соответствующий блок базы знаний подгружается в контекст, то-есть бот видит примерно следующее:

user: Идти на уровень 100
system: Информация из базы знаний: "Level 100, colloquially known as either "Soundless Solitude" or "Silent Sounds" comprises a narrow, waterlocked shoal of smooth sand stretching infinitely from east to west, being bordered at the northern and southern ends by an everlasting warm ocean", пожалуйста, полагайтесь на эту информацию при ответах, если это релевантно запросу пользователя

Причём база знаний может весить хоть петабайты, она не загружается в контекст целиком а загружается только релевантный кусок. Таким образом, можно дёшево впихнуть в бота неограниченный объём знаний

Как это работает? Идёт поиск по базе где в качестве поискового запроса используются слова введённые пользователем. Либо база представляет из себя сплошную простыню текста (например вордовский документ) и тогда программа ищет абзац в котором встречаются искомые слова и подгружает его, либо база разбита на статьи и тогда подгружается определённая статья. Если база разбита на статьи то можно искать как по текстам статей так и только по заголовкам.

Как происходит поиск? Есть разные подходы. Самый продвинутый - векторный поиск. Это когда нейронка ищет с использованием технологий ИИ. Это нечёткий поиск, работает хорошо. То-есть если поисковый запрос "Идти на уровень 100", то она найдёт статью где упоминается "уровень 100", но такой поиск использует api openai и требует денег (хотя это и гораздо дешевле чем всю базу держать в контексте,а если поиск идёт только по заголовкам статей то получаются вообще копейки)

Другой подход - поиск по ключевым словам и шаблонным фразам. Это бесплатно и можно реализовать самому. Например у статьи прописываешь ключевые слова: "level 100, уровень 100, уровня 100, сотый уровень, уровень сто", затем когда пользователь вводит промпт надо пройтись циклом по всем ключевым словам которые есть в базе и определить какие из них входят в промпт и подгрузить соответствующую статью

 No.149248

Ещё у меня есть такая идея, я её не проверял, но теоретически должно работать. Как заставить бота помнить важные события?

а вот так:
1. делаем текстовый файл memory.txt, его содержимое всегда подгружается в контекст
2. делаем так что при вводе команды !append содержимое поста добавляется в файл или если превышен лимит размера файла выводим в чат ошибку
3. делаем так что при вводе команды !update содержимое файла перезаписывается содержимым поста
4. встраиваем в контекст следующий текст:
system: ты, как бот, должен сохранять ключевую информацию о игровом процессе в базу данных. напиши команду !append и твоё сообщение добавится в базу данных. если ты достиг лимита размера базы данных напиши !update с краткой выжимкой наиболее важных данных из базы данных и база данных перезапишется тем что ты ввёл

продвинутые боты такие как например chatgpt могут вводить команды в чат если им обьяснить синтаксис и когда и зачем это нужно делать

по идее, если так сделать то бот будет хранить в файле memory.txt ключевую инфу о игровом процессе и эта инфа всегда будет показываться боту

 No.149249

>>149248
И применительно именно к играм можно сделать ещё круче. Хранить в структурированном виде как в обычной игре в переменных инвентарь, статы и т.п. и дать нейронке js eval чтобы она могла напрямую с этими переменными взаимодействовать

 No.149287

File: 1726994929790-0.jpg (233.01 KB, 1243x797, lorebook.jpg)

File: 1726994929790-1.jpg (145.75 KB, 926x1306, authors_note.jpg)

>>149214
Расскажу либо сегодня вечером, либо завтра утром.

>>149245
>Как это работает? Идёт поиск по базе где в качестве поискового запроса используются слова введённые пользователем. Либо база представляет из себя сплошную простыню текста (например вордовский документ) и тогда программа ищет абзац в котором встречаются искомые слова и подгружает его, либо база разбита на статьи и тогда подгружается определённая статья. Если база разбита на статьи то можно искать как по текстам статей так и только по заголовкам.

Собственно, лорбуки из себя именно это и представляют. У них имеются ключевые слова, которые содержат в себе некую информацию, что впоследствии сможет использовать машина. Можно установить также насколько сильно бот должен соответствовать описанию и как именно он должен реагировать на ключевые слова. Единственная проблема — всё это загружается в контекст, поэтому если лорбук обширный, машина может тупить. Единственный вариант это исправить, помимо увеличения ОЗУ и количества контекста — несколько раз продублировать информацию в разных местах лорбука. Ну или найти способ, как вставить всю эту информацию в модель напрямую.

>>149248
Такая штука в SillyTavern тоже есть, в него целые посты записывать необязательно. Называется Authors Note. Туда можно записывать всё что угодно: например информацию, которую должен помнить бот, место, в котором происходят события на данный момент, какое-то изменение, связанное с персонажем, что он, например, ранен и не может ходить. Если какое-то из этих событий прошло — можно убрать об этом информацию. Всё это будет работать для текущего чата и тоже будет храниться в контексте. Authors Note есть смысл использовать, поскольку бот будет генерировать реплики больше подходящие по теме.

>>149249
Для такого необходимо написать аддон, как это делать — не знаю.

 No.149304

>>149245
>что такое лорбуки
https://docs.sillytavern.app/usage/core-concepts/worldinfo/
Небольшая вики а также база данных для того, чтобы модель брала инфу оттуда, вместо того чтобы хранить всё в контексте модели и в памяти.

 No.149306

>>149304
Я мимошел и хочу уточнить. Я правильно понимаю, что если я кручу какую-то модельку офлайново, то ее контекст на сколько-то там килотокенов можно умощнить лорбуком какой-то (какой?!!) толщины?
Мне не очень интересно крутить ролеплей чятики, но было бы интересно попробовать обсудить какую-то тему с текстовой моделькой. И с маленьким контекстом в этом особого смысла как мне видится нет, а с большим она не налезет на железо. А лорбук позволяет это ограничение обойти? Или нет?

 No.149308

>>149304
Разве лорбук не в контексте и памяти хранится? Я всегда считал, что это так.

 No.149327

File: 1727003617164.png (347.22 KB, 1302x1305, ClipboardImage.png)

>>149308
Движок таверны помогает дополнить твой промт дополнительной информацией, если замечает твои ключевые слова.

Модель по настоящему не будет знать лор лучше, но таверна расскажет всё самое важное на ушко модели, прежде чем она будет отвечать человеку.

 No.149330

File: 1727003795023.png (238.17 KB, 1263x498, ClipboardImage.png)


 No.149332

>>149327
>Модель по настоящему не будет знать лор лучше
Это может показаться немного разочаровывающим кому-то.

Но на самом деле результат очень хороший.

 No.149338

>>149306
>(вы)
>И с маленьким контекстом в этом особого смысла как мне видится нет, а с большим она не налезет на железо
Мне сложно сказать у меня нет должной компетентности еще. Проще всего тебе это исследовать самостоятельно на своем пк и выложить где-то результат(например здесь), если тебе интересно пустить какой-то слух.

Скорее всего обсуждение сложных и "шибко" умных тем тебе принесет разочарование. Пока что.

 No.149341

А модельки наученные на великий и могучий есть толковые? Мне несколько некомфортно гонять все туда-сюда через переводчики.

 No.149345

>>149341
Я слышал только, что толковых нет. Есть не толковые, например огромные и очень требовательные модели на китайском, которые что-то могут и на русском сказать. Но это meh

 No.149347

File: 1727014786784-0.png (210.54 KB, 1278x737, изображение.png)

File: 1727014786784-1.png (239 KB, 1278x481, изображение.png)

>>149341
Толковых нет. Чтобы не бегать в переводчик раз за разом — в SillyTavern есть перечень встроенных, но почти все из них нуждаются в ключе, в том числе и DeepL. По этой причине придётся пользоваться Гугловским. Лучше всего выставить такие параметры, чтобы перевод не был автоматическим. Далее, при нажатии на эту кнопку, будут переводиться фразы как бота так и твои. Он будет неточным, но зато не надо будет переключаться между Таверной и переводчиком.

 No.149392

>>146244
На диск историю не сложить? Пусть с заметным падением скорости, но чтобы если в раме не нашло, лопатило сохраненные контексты на диске?

 No.149398

>>149341
характер вполне по русски говорит

 No.149401

>>149392
К сожалению не сложить. Вся переписка с машиной, профиль самого персонажа, лорбук и прочее проходят через оперативную память. Если количество токенов у вышеперечисленной информации начинает превышать то максимальное значение, которое выставлено тобой у токенов — сверху вниз начинают резаться сообщения в переписке, машина их перестаёт видеть. Если есть желание, чтобы контекста хватало на большую переписку — можно уменьшить размер ответов бота. Это почти ни на что не повлияет, уменьшится только количество описаний и малозначительных действий.

 No.149412

>>149392
>>149401
Сложить можно. Просто юзаешь файл подкачки или swap. Вопрос в том как это на производительности скажется

 No.149453

>>149341
Гемма на 27 и МистральНемоИнструкт на 24 уже вполне ок на русском пишут и понимают. Грамотнее средне-статистического анона. Все, что больше и свежее тоже может адекватно, но эти топ из "небольших". Главное, не пробуй Сайгу

 No.149488

File: 1727084065518-0.jpg (320.62 KB, 1266x1253, chat.jpg)

Немного запоздавший гайд по созданию карточки для вашего персонажа:

Начать стоит с оформления: на самом деле оформлять информацию, по типу имени, возраста, внешности и так далее можно в целом как угодно. Однако, когда таких данных становится слишком много, подобную простыню неудобно читать и редактировать.

Я пользуюсь следующим вариантом оформления. Некоторые его пункты опциональны, их можно не включать в карточку, если в них нет нужды:

Character: имя персонажа
Personality: краткое описание личности и характера персонажа
Species: вид, к которому принадлежит персонаж
Gender: пол и/или гендер персонажа
Height: рост персонажа
Birthday: день рождения персонажа
Age: возраст персонажа
Sexual orientation: сексуальная ориентация персонажа
Body: ёмкое описнаие внешности персонажа (без одежды)
Clothing: ёмкое описание одежды, которую носит персонаж
Abilities: способности персонажа
Likes: вещи, которые нравятся персонажу
Dislikes: вещи, которые не нравятся персонажу
Quirks: причуды персонажа

Далее внизу пишется краткая биография, вступительное сообщение персонажа и карточка готова.

Там есть ещё более глубокие настройки, но в них я пока что не разобрался. Такой карточки должно хватить на многое. Если ваш персонаж уже существует и про него есть подробная статья — берёте и вставляете информацию с англ. Вики по нему. Если что — задавайте вопросы.

Оформление карточки на примере нашей мудрой волчицы Холо здесь. Создал я её минут за пятнадцать, при желании её можно сделать ещё лучше: https://pastebin.com/EUnbJMmg

 No.149607

Минимальные:
7b = хотя бы суммарно 6GB врам + рам
13b = хотя бы суммарно 10GB врам + рам
8x7b = хотя бы суммарно 24GB врам + рам
70b = хотя бы суммарно 40GB врам + рам


Рекомендуемые требования к моделям:
7b = хотя бы 6GB врам
13b = хотя бы 10GB врам
8x7b = хотя бы 24GB врам
70b = хотя бы +40GB врам
___

(например 13b 4_K_M лучше 7b q8_0, просто факт, без траты времени на объяснения)

Mistral 8x7b база семи месяцев давности. Начать знакомство можно с неё, если комп запустит.

 No.149640

Разве GPT-4 или Sonnet не будут намного лучше, чем все эти локалки? С доступом к Opus нынче сложно, но бесплатные прокси с AWS и Azure всегда можно найти. Тем более если без лютой похабщины рп.

 No.149646

File: 1727104751558.png (309.22 KB, 661x800, ClipboardImage.png)

>>149640
Ну для механической работы лучше использовать мощности гпт. А вот для рп спорно, мне вот не хочется общаться вот с чем-то этим и деверять им строить дакже какие-то мои фантазии без похабщины.

Это неправильно как-то с точки зрения этики?

 No.149658

File: 1727105318479-0.png (2.21 MB, 1879x980, 1668677245372.png)

Единый гайд по пунктам и со всеми ссылками есть, чтобы сделать примерено как на пикрил с условной Холой? А лучше еще каталог моделей по персонажам

 No.149660

>>149646
Ну эти фильтры вполне успешно пробиваются пресетами, джейлами. Я же имел в виду использование в той же SillyTavern c reverse proxy. В пресете прописывается, что чат fictional, private, для нужд разработки или что-то такое, и можно создавать персонажа, который воспитан форчанерами и через слово будет разоблачать (((them))) и спамить нвордом.

 No.149665

>>149658
"Модель по персонажам" это какая-то экзотика насколько я понимаю.

Обычно модель универсальная, просто ты её просишь отыграть определенного персонажа. Все зависит от того насколько хорошо ты опишешь персонажа.
Вот гайд на создание персонажа >>149488
Но Холо персонаж популярный, можно взять готовое и дописать некоторые аспекты под свой вкус.

>>149658
>примерено как на пикрил с условной Холой
Здесь ничего волшебного нет.
Видишь волшебную палочку и рядом с ней еще кнопка есть? Там выкатываются списоки всяких фич, и можно в том числе сделать такую же картинку с персонажем. Интерфейс и кнопочки тоже можно в любые цвета перекрасить.

Настоящее волшебство сейчас это личные проекты где можно сделать помощницу-"витубера", которая находится на экране постоянно и комментирует то что происходит. Например смотрит как ты в онлайн покер играешь. Или как общаешься на доброчане с анонами. Комментирует голосом при этом тоже.

 No.149670

>>149665
>Обычно модель универсальная, просто ты её просишь отыграть определенного персонажа
Я думал, что тут отдельная модель на каждого персонажа, которая обучается на основе контента с ним.
>можно взять готовое
Мне нужно что-то вроде файла, который можно скормить проге, чтобы она автоматически перевоплотилась в нужного мне перса.

>Интерфейс и кнопочки тоже можно в любые цвета перекрасить

С фронтэндом то все ясно более-менее.

>Настоящее волшебство сейчас это личные проекты где можно сделать помощницу

Vedal vedal vedal vedal vedal
wink

>Комментирует голосом при этом тоже

Да та же Нейро-сама почти как живая! Серьезно, она стримит объективно лучше 95% реальных wman. А если ей отключить filtered*, то вообще огонь будет.

Ну так гайда нет в итоге? Уже думал заказывать себе ссдшник на 2тб под это дело. Зря что ли до этого вложился в 4060?
Алсо нужно ли обязательно юзать ссд для хранения модели или хватит дохлого хдд под это дело? На авито за 2к рублей можно взять относительно живой винт под невлажные файлы, вроде игорь там и моделей тех же.

 No.149681

>>149660
Это имеет место быть. И это может быть намного очень заметно лучше чем использование локальных моделей(при прямом сравнении).

Споры о локальном зато своем vs доверие компании это сюжет все того же фильма "Я робот".
Ну и плюс локальных все же в том, что они работают без сети.

 No.149687

>>149670
>Мне нужно что-то вроде файла, который можно скормить проге, чтобы она автоматически перевоплотилась в нужного мне перса.

Файлы персонажей можно скачать из Chub AI. Ссылка в шапке поста, Холо среди них тоже есть.

>Ну так гайда нет в итоге?


Тебе рассказать в подробностях как сделать подобное как здесь: >>149658?

 No.149689

File: 1727107638128.png (157.79 KB, 400x600, main_spot-the-cat_spec_v2.png)

>>149670
>Я думал, что тут отдельная модель на каждого персонажа, которая обучается на основе контента с ним.
Так "объяснить отыгрыш" это тоже попадает под определение "обучения". Так что ты в итоге все-равно прав оказался! Да и модели заточенные под что-то одно конкретное существуют.

>Мне нужно что-то вроде файла, который можно скормить проге, чтобы она автоматически перевоплотилась в нужного мне перса.

Да, эти файлы могут быть даже картинками.

>>149687
>Файлы персонажей можно скачать из
А можно ли ими делиться итт?

 No.149690

>>149689
>А можно ли ими делиться итт?
А, вижу уже самостоятельно что нельзя. Метадата вырезается.

 No.149692

>>149690
Можно просто ссылку кидать на карточку персонажа в Chub AI. Метаданные, действительно, режутся.

 No.149693

>>149692
Ну или на файлообменники…

 No.149698

>>149681
Это сериал

 No.149701

File: 1727109051865.png (51.17 KB, 421x229, ClipboardImage.png)

>>149698
Не злись, я знаю что изначально это серия книжных рассказов. Но и одноименный фильм в свое время можно было посмотреть.

Пойду извинюсь перед Автором.

 No.149729

Как выбрать нужный gguf вроде понятно. А для чего нужны вот эти страницы и что именно в них люди качают и как понимают что им надо?

https://huggingface.co/Sao10K/L3-70B-Euryale-v2.1/tree/main

 No.149745

>>149729
Доброчую. Хотелось бы тоже узнать.

 No.149751

>>149745
Я кажется уже самостоятельно понимаю ответ.
Там ~30 файлов расширения safetensor
30 файлов * вес ~4.58гб = ~137.4гб

Это вес полной модели. На 30 файлов оно разделено для удобства хранения.

gguf же это модель которая прошла квантизацию (порезали/ужали).

То есть с этой страницы качают владельцы нескольких 3090 в связке.

Качают при этом даже наверное не с целью запускать "непожатые" модели а скорее с целью тренировать потом свои. Хотя наверное можно по всякому их использовать.

 No.149754

>>149751
>владельцы нескольких 3090 в связке
*или иного оборудования высокого класса

 No.149758

>>149729
Это для запуска в своих поделках на transformers. Запустить руками их тоже можно - вот тут пример аж на 5 питониевых строк https://huggingface.co/meta-llama/Meta-Llama-3-8B
Можешь их квантизировать в gguf через llama.cpp, это тоже легко и быстро.

 No.149763

>>149758
>transformers
Это какие-то функциональные библиотеки языка для работы с нейросетками? Я просто не программист, и вообще мне это слово как и описание README.mе ни о чем не говорит.

>llama.cpp

А оно специально для квантизации создано? Или это одна из неосновных функций?

 No.149765

>>149763
>Это какие-то функциональные библиотеки языка для работы с нейросетками?
Да, если упрощенно, то библиотека на питоне которая используется в большинстве программ для работы с нейросетями - с языковыми, с картиночными и прочими
>А оно специально для квантизации создано? Или это одна из неосновных функций?
Оно для работы с языковыми моделями создано. Когда-то давно это был единственный способ завести модели на процессоре и оперативке. Конвертер приделали потом, когда устаканился формат. К слову, GGUF это Georgi Gerganov Unified Format. Этот самый Георгий это автор llama.cpp.

 No.149767

File: 1727122014046.jpg (71.71 KB, 1080x401, a14d00e0-5266-41fa-88a0-9e….jpg)

>>149765
Блин вопросы выглядели, возможно, как троллинг, но это не троллинг был.
Спасибо за ответы. Вот смешное.

 No.149789

>>149488
Спасибо! Там же уже мной самостоятельно найдена кнопка, как выгрузить карточку картинкой либо в текстовом формате.

 No.149829

Так нужен ли SSD под нейронки?

 No.149833

>>149829
Если ты хочешь, чтобы сама модель запускалась быстрее и генерация была также быстрее — да.

 No.150154

я опять столкнулся с тем что характер аи зацикливается и начинает одно и тоже писать (например монотонное блуждание по бесконечному коридору где все двери заперты)

у меня появилась идея контрить это следующим текстом в промпте:
"игрок может использовать читкод rand, если игрок ввёл слово rand, то произойти должно что-то неожиданное и выбивающееся из текущей ситуации"

пока не тестил но по идее, если бот начинает циклиться, то вводишь rand и он должен расциклиться

 No.150164

File: 1727251938899.png (830.69 KB, 1656x1498, Screenshot 2024-09-25 at 5….png)

Привет, доброчан. Давно не виделись.

Помнит тут кто-нибудь, как мы обсуждали это в 2021-м? Или ещё раньше? Когда GPT-3 не умел считать и галлюцинировал про мост Золотые Ворота, который перевезли в Египет?

Я с тех пор оброс связями в релевантных кругах. Заодно стал лучше понимать дизайн актуальных LLM. Задавайте ответы, что ли.

 No.150167

>>150164
Рассказывай как докатился до жизни такой.

Чем новая превью модель от openai лучше 4o? Я большой разницы на общих вопросах не заметил

 No.150168

>>150164
Какая сейчас лучшая файнтюн из 13b-8x7b у мемных и развлекающихся людей.

 No.150178

File: 1727254040578-0.jpg (340.56 KB, 1913x1192, repeater.jpg)

>>150154
Попасться на цикл мне не удалось, поэтому я создал бота, который повторяет каждое сообщение, которое ему вводят, после чего ввёл rand. Это сработало и машина перестала попугайничать, но как это будет работать при случайно возникающем цикле — не знаю.

>>150164
Есть ли LLM, которые умеют в географию и ориентиры? Например, чтобы я расписал, условно, карту, точки интереса и их местоположение, а потом я потом мог спросить, мол, а как с этого места добраться до того места? Когда я так делаю, машина часто выдаёт много отсебятины, хотя я то же расстояние между точками прописываю.

 No.150180

>>150178
> чтобы я расписал, условно, карту, точки интереса и их местоположение, а потом я потом мог спросить, мол, а как с этого места добраться до того места
Мне кажется, в таком случае тебе лучше просить её не решить задачу, а написать программу на питоне, которая решит задачу.

 No.150188

>>150180
Удвою.
Или поступить иначе. Сам маршрут получать из API какого-нибудь движка карт в виде точек, а чатбота обучить переводить это в тестовый вариант.

 No.150191

>>150188
>>150188
Как-то слишком муторно для того, чтобы для ролёвки местность запилить. Программист из меня такой себе.

 No.150192

>>150167
К концу 2021 я понял, что мой постинг на доброчке абсолютно истинен, моя предыдущая карьера не имеет смысла и нужно вкатываться в генеративный ИИ, чтобы успеть заработать на гречку после сингулярности. Война внесла свои изменения в эти планы.

Не знаю, что у тебя за задачи. o1-preview это пожалуй первая ИИ-модель, которая может считаться программистом и агентом общего назначения, а не хитрым автокомплитом с коррекцией по обратной связи, вроде sonnet 3.5. LLM в принципе склонны к ленивой меморизации и воспроизведению; во всём, что не требует пошагового рассуждения и логических проверок на консистентность, она не будет превосходить другие сильные модели с обширными знаниями и навыками. Архитектурно это та же GPT-4, но переобученная на синтетических данных, полученных с помощью чего-то вроде MCTS по chain of thought, с ансамблем process reward models. Детали рецепта они фанатично скрывают, как и скрытый chain of thought, но общие черты понятны.

>>150178
Думаю, в residual stream твоя карта смешается в кашу даже у модели с большим и хорошо осознаваемым контекстом. Но в SillyTavern есть система управления знаниями с подгрузкой по контексту, может это отчасти спасает ситуацию.

Ожидаю прогресса от омнимодальных моделей.

(Это ещё одна ситуация, где пригодился бы скрытый chain of thought, как в o1, чтобы модель могла сначала набросать себе скетч актуальных расстояний исходя из данного в инструкциях, а потом ролеплеила. Пока я бы проверил на o1-mini. В теории, это можно худо-бедно реализовать на уровне промпта).

>>150168
Не увлекаюсь ролеплеем. Как я понимаю модели на основе Mistral-Nemo и Mistral-22B доминируют в этой категории. Думаю их скоро вытеснит Qwen 2.5, 14B и 32B, потому что они обучены на огромном массиве данных (даже если инструкт-варианты не слишком хороши). Такое лучше спросить в http://4chan.org/g/lmg. Кажется, что с дешевизной современных API (например 28 центов за миллион токенов DeepSeek 2.5, который заведомо лучше всех локальных моделей <50B даже без файнтюна на ролеплей) интерес к локальному инференсу уходит. А жаль.

 No.150196

>>150192
Спасибо, понял. На именно кодерских задачах я ещё o1-preview не тестил. Пока обходился 4o-mini для простых задачек рефакторинга.
Да и в целом, именно код писать не выглядит такой сложной задачей для нейронок, пока не возникает проблем прав (пусть воруют чужой, я так же делаю).

Но вот старые модели не умели толком в архитектуру, надо попробовать против этих задач позапускать.

 No.150198

>>150164
Сингулярность, которую обещали спустя "через пару месяцев" каждые пару месяцев, так и не наступила.

 No.150200

>>150192
>Но в SillyTavern есть система управления знаниями с подгрузкой по контексту, может это отчасти спасает ситуацию.
Я в лорбук, который содержит по ключевым словам определённую информацию и даёт о ней знать модели, и вписывал, не в саму карточку. В таком случае буду ждать прогресса в этом направлении дальше, может к тому моменту успею обновить железо.

 No.150201

>>150192
>может считаться программистом
она может сама целиком написать всю прогу и скомпилить её? или по прежнему выдаёт куски кода которые надо копировать?
>агентом
в чём проявляется? она может сама по телеграму бегать и добавляться в чаты или что?

 No.150208

>>150196
Код писать сложно. И для нейронок и для людей. Не хелло-ворлды из памяти, а например юнит-тесты, да ещё с пониманием контекста по репозиторию с 10+ файлами. Чем выше процентиль сложности задачи, тем лучше видны различия между машинками разного уровня.

>>150198
Ты просто животное с раздроченным в кровавую дыру новостями мозгом. Тебя уже не удивляет, не кажется чем-то неожиданным, что машины, которые 3 года назад не могли сгенерировать список из 10 кличек для собак не сбившись со счёта и не вошедши в цикл, сейчас решают задачи олимпиадного уровня (из олимпиад, прошедших после окончания их тренинга), дешевле и быстрее. Не удивлюсь, если в тех тредах ты гыгыкал над спекуляциями, что GPT-3 это индусы-копирайтеры и прочими конспиративными предъявами кальсон-куна. А теперь на смартфонах локально работают системы мощнее.

Тут нечего больше добавить. Мы живём в разворачивающейся сингулярности.

>>150201
Это вопросы UX, а не характера и сложности решаемых задач. Да, она может лучше, чем любые предыдущие модели, обдумать стратегию выполнения таких задач.

 No.150214

>>150192
>Такое лучше спросить в http://4chan.org/g/lmg
У них это настолько платина что вопросы об актуальных базовых моделях чаще всего просто завайпают слишком большим количеством низкокачественных, спорных, не очевидных, и конечно шуточных ответов с которыми новичок не разберется.

>Кажется, что с дешевизной современных API (например 28 центов за миллион токенов DeepSeek 2.5, который заведомо лучше всех локальных моделей <50B даже без файнтюна на ролеплей) интерес к локальному инференсу уходит. А жаль.

Поездку к бабушке(или полёт в открытый космос) где связь не ловит никто не отменял. Хотя на таком же уровне интерес подобные кейсы не будут поддерживать в той же мере. Но может есть еще какие-то неочевидные достоинства которые еще предстоит осознать.

>модели на основе Mistral-Nemo и Mistral-22B

Жаль что без примеров конкретных тюнов все-таки.
>Qwen 2.5
А по ней возможны файнтюны?

 No.150221

File: 1727259665735-0.png (12.35 KB, 690x113, 1703376076574.png)

>>150208
> Ты просто животное с раздроченным в кровавую дыру новостями мозгом.
Ты только что буквально себя. Именно в твоих тредах обещалось что вот она, еще чуть чуть и сингулярность, пять пальцев на одной руке в следующем квартале.

 No.150228

Он тебя на негатив провоцирует а ты столько ответил ему. На ру бордах еще есть парочка школьник-кунов и те, кто их сюда позвал.

 No.150235

>>150221
>пять пальцев
Так уже

 No.150236

>>150208
>Это вопросы UX, а не характера и сложности решаемых задач.
- этот гриб съедобен?
- это вопрос гастрономии а не биологии

 No.150239

>>150214
> А по ней возможны файнтюны?
Почему нет. Они же дают базовые модели. Я думаю, что каломаз и прочие скоро что-то выкатят.

>>150221
Лжец. Я обещал, что художников порешают к 2029-му. Пока траектория такая, что к 2028-му порешают даже меня. Да, иногда я и переоценивал динамику. Но никогда я не опускался до такого, чтобы хвататься за соломинки в надежде развидеть реальность, вот как ты с этой картиночкой.

Впрочем, к чему втолковывать культуру дискуссии педофилу-шизофренику?

>>150236
Некоторые грибы съедобны только после приготовления. Да, съедобен.

Если тебе впадлу скомпилировать написанный работающий код, то найдутся и без тебя "программисты".

 No.150240

>>150239
>Если тебе впадлу скомпилировать написанный работающий код, то найдутся и без тебя "программисты"
А если тебе впадлу нормально ответить на вопрос тоты идешь нахуй

 No.150243

>>150239
Лол, нейросети уже и педофилов по интернету детектируют.

 No.150250

>>150243
Педофил педофила видит издалека.

 No.150251

File: 1727267667032-0.png (1.25 MB, 1906x1626, Screenshot 2024-09-25 at 9….png)

File: 1727267667032-1.png (661.74 KB, 1930x1356, Screenshot 2024-09-25 at 9….png)

>>150243
Нейросети могут, но тут мне собственной памяти хватило. Этот разоблачитель очень забавный.

 No.150252

>>150235
Так никто и не спорит, что есть прогресс, но и то, даже сейчас все не так уж хорошо с руками. А руки это просто то, что в первую очередь бросается в глаза, за что мемность и приобрело. Но речь не об этом, просто данный чудак еще два-три года назад назад задвигал, что еще один два квартала, ну максимум год и сетки всех порешают, все нарисуют и вообще вот это все. А на любые скептические ответы разражался тем, что ты сам можешь итт видеть. Собственно и здесь он ворвался в тред текстовых генераций, потому что куда попало, хотя ниже парой страниц есть тред про то, как ИИ всех порешает, или нет.

 No.150269

>>150252
последнее справедливо, продолжу в >>107964.

>>150214
Поговорил с файнтюнщиками, думаю на Квене можно всё же ничего не ждать, он умный, но плохо знает медийных персонажей. Посмотри на модельки серии magnum и новые от sao10k.

 No.150496

>>150269
Спасибо, качаю от магнум 34b посмотрю можно ли заскучать с такой моделью когда буду у родственников вдали от цивилизации.

 No.150517

>>149488
Твой гайд полная хуйня, попробуй мемо https://rentry.co/DrunkArcadeExample

 No.150520

>>150517
Блин, если бы ты скинул мне эту академическую фигню для хардкорных промт аутистов вперед того кто мне отвечал, я бы никогда не заинтересовался карточками персонажей.

Но вообще спасибо, вполне глубокий гайд и наверное правильный.


мимо тот, кому он отвечал

 No.150545

>>150517
Да, тут описано всё гораздо подробнее и интереснее чем у меня. В таком случае, если тред достигнет бамплимита — я к шапке прикреплю свой более дополненный гайд и этот. Мой будет для тех, кому не хочется сильно заморачиваться с созданием карточки, тогда как этот будет для тех, кому наоборот, хочется сильно.

Ещё такой вопрос. Как сделать так, чтобы развитие отношений с персонажей происходило медленнее? В ролёвке проходит два дня, а персонаж уже успел стать для меня лучшим другом и признаться в любви. Есть ли какой-нибудь промпт, делающий прогресс в отношениях менее быстрым?

 No.150621

>>150545
Наверное это не твой случай, но поделюсь своим небольшим опытом.
Ответы стали злее, после того как я пересел на более честный файнтюн без цензуры.

На других моделях, ответы были просто добрыми(по замыслу персонаж злой настолько, насколько вообще может быть злым ИИ, который считает себя богом и желающий поработить людей), сейчас же "рассказчик" сообщает что все хорошие вещи делаются только чтобы вторгнуться в доверие и предать.
нужно кстати попробовать прямо сказать что обман и попытка войти в доверия раскрыты и посмотреть что будет

 No.150744

>>150621
Я на разных моделях тоже такие эксперименты со злобой проводил. Результаты порой были неожиданными, но корреляцию какую-то я не выявил. В теории любую LLM можно заставить так себя вести, нужно просто поработать над промптами и в самой переписке нужный тон задать.

 No.151564

Сделал в характере аи игру по теме безумного мира - безумная природа, законы физики и люди. По сюжету герой - попаданец в такой мир

Первая игровая партия - игрок очнулся в какой-то незнакомой спальне. В тумбочке было две свечи, спички и пачка презервативов. Интересно, думал ли ИИ о том что презервативы надевались на свечи и одна вставлялась в жопу а другая во влагалище? Или же это моё больное воображение достраивает детали? Правды мы никогда не узнаем. Когда я обыскал шкаф и ввёл команду "взять вещи", герой почему то положил вещи не к себе в карман а в карман одежды на вешалке, причём вещи появились в инвентаре. Толи нейронка заглючила, толи это не баг а фича (мир то безумный). Опять таки - правды мы никогда не узнаем. Я вышел в коридор, все двери заперты и бродит какой-то шизик-полуовощ в больничной одежде. Выбратся оттуда не получилось

Вторая игровая партия - учёный из какого-то НИИ где держат загадочных тварей телепортировал игрока к себе из нормального уровня, похитил его, затем взял пистолет с тентаклями (так и написано - с тентаклями), направил на героя и герой начал превращаться. С помощью разных приборов учёных превратить героя в пылающую огненной аурой птицу и назвал её "феникс". Он сказал что теперь он многого добьётся в научной работе. Толи в том НИИ именно такими опытами и занимаются, толи там ловят экзотических существ, а он не мог найти готового и решил создать. Учёный надел на меня браслет с шокером чтобы я не сбежал и отвёл в помещение со стеклянными клетками, оставив меня там одного (но не в клетке). я сбил клювом с себя браслет (но ИИ предупредил меня чтобы учёный мог по приколу незаметно для меня нацепить на меня ещё один браслет, к счастью, мог но не сделал). Затем я разбил клювом клетки, животные выбежали и начали бесноваться. На шум прибежали учёные а я воспользовался моментом и выскочил из комнаты когда учёные распахнули дверь. Учёный погнался за мной, я пытался делать ему кусь за ушко но он отпрыгивал назад. В итоге мне удалось оторваться, но коридор был бесконечный а большинство дверей были заперты. Я забил

третья игровая партия - мир называется "мир сумасшедших" с парящими островами. Попаданцы (как главный герой) сначала спаунятся в психушке где они проходят реабилитацию чтобы адаптироваться к чуждому для их разума миру.

почему-то во всех трёх партиях фигурирует тема запертости в дурке или в чём-то похожем. Видимо у ИИ безумие и дурка прочно ассоциируются. надо бы прописать в описании игры чтобы было больше свободы действий и открытых пространств

Альсо, играл как-то в бекрумс. был такой диалог с сущностью (монстром):
сущность: назови своё имя
я: давай сначала ты своё
сущность: ты не боишься меня?
я: а ты меня?
с: а с чего это мне тебя боятся?
я: так да или нет
c: ты не такой как все. все остальные люди которых я встречал до тебя боятся меня но не ты
я: а с чего это мне тебя боятся?
с: очень интересно. видимо ты тоже сущность поэтому и не боишься меня
в итоге он принял меня за своего и стал дружественен. прикольно

 No.151565

>>151564
>нормального уровня
нормального мира. фикс. у меня уже бекрумс головного мозга

 No.151709

File: 1727676189694.mp4 (1.13 MB, 1920x1080, 2024-09-30 08-47-56.mp4)

Не нашёл нормальной модели гладос на просторах глупой таверны, зато наткнулся на проект, где она палит в то, что ты делаешь, через llava описывает скриншот и подаёт на llama которая, в свою очередь, стебётся над тобой. Очень доставило - в особенности тем что модели локальные и можно менять промты - попробую поэкспериментировать и попросить её давать бесполезные подсказки как в портале. Мб ещё Voice Recognition подниму со связкой Voice -> Llama ("нужно ли палить в экран")[Да -> палим в экран, дополняем контекст промтом со скрина] [Нет -> Ответ на вопрос]

https://github.com/KPEKEP/GLaDOS

 No.151843

>>151564
Попробовал сделать на локалке то же самое и машина создавала мне аналогичную ситуацию с появлением в каком-то здании из которого, зачастую, проблематично выбраться. Однако если промпт немного дополнить — ситуации выходили куда интереснее.

>>151709
Интересная штука. Я, честно, пытался её себе поставить, установил всё необходимое, но по итогу всё равно не получилось запустить.

 No.152148

>>151843
>установил всё необходимое, но по итогу всё равно не получилось запустить.
Там readme говёное. Я сделал venv на python311, поставил pytorch (пожалуй, самое сложное, т.к. днем с огнём не сыщещь сборку через pip и без conda), поэтому просто поставил прошлую версию
pip install torch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0

Ещё надо ollama накатить
https://ollama.com/download
И после её накатывания загрузить модельки, т.е. ollama pull llava:7b ; ollama pull llama3:8b

 No.152684

>>152148
Постараюсь разобраться завтра с этим в таком случае.

У меня есть одно предложение. Как насчёт того, чтобы коллективно составить самую идеальную и подробную карточку Хоро? И в следующей шапке закрепить, если до неё доживём. На Chub AI несколько уже есть, но они не идеальны.

 No.152715

>>152684
> Как насчёт того, чтобы коллективно составить самую идеальную и подробную карточку Хоро?
Отрицательно. Оставьте Хоро в покое.

 No.152803

>>152715
>Отрицательно. Оставьте Хоро в покое.
Это будет ненастоящая Хоро, а параметры, которые будут заставлять машину имитировать Хоро. Настоящую Хоро никто не будет тревожить.

 No.152826

>>152803
Тут нет психов, которые будут опасаться за настоящую Хоро. Зато есть достаточно примеров персонажей, которые делятся своими удивительными психофантазиями где ни попадя.

 No.152921

>>152684
Да ну такой фанатизм, не очень, настоящая идеальная Холо не одобрила бы.
Лучше придумай оригинальный маскот для этого треда, у тебя хорошо получится.

 No.153034

Посоветуйте где промты брать. Гугл выдает одно устаревшее васянство. Все что с таверной связано и на мыйлаче в аи - там сплошняком NSFW. При этом у них прям самые мощные результаты выдаются, намного лучше моих личных наработок опытных когда я просто составляю текстом на английском лист того, чего бы я не хотел в ответе. Тем более, как вижу, рез-ты разные получаются для разных моделек, Клодовские и ГПТшные совершенно по-разному реагируют. Мне, желательно, вообще не нужен персонаж, а просто максимальное качество контента (кода \ текста с заданными параметрами) на выходе, донастройка Ассистента, так сказать.

 No.153040

>>152921
Хорошая идея. В таком случае придумаю маскота и обращусь с реквестом в нейрокартинок тред. У меня контрлнет просто не хочет работать, сам сделать красиво не смогу.

 No.153102

>>153040
Если ты хочешь сложности, сейчас нет разницы просить диджитал рисовальщика или диффузионщика. У этих двух вариантов одинаковый вес во всём.
А красиво и просто ты можешь сам, контролнет не нужен, я гарантирую это.

 No.153319

File: 1728143930253-0.webp (98.84 KB, 1152x896, 00018-1688317781.webp)

File: 1728143930253-1.webp (84.63 KB, 1152x896, 00017-1963639136.webp)

File: 1728143930253-2.webp (79.38 KB, 1152x896, 00016-3010523916.webp)

File: 1728143930253-3.webp (105.69 KB, 1152x896, 00013-3991450045.webp)

>>153102
Вышло вот так, пришлось долго ковырять промпт, но результат меня устраивает. Поначалу я хотел вместо штрих-кода на плече сделать шрам определённой формы, но он получался не тем, каким я хотел. Теперь надо придумать имя, характер, предысторию и можно делать карточку.

 No.153323

>>153319
А есть какая-то история и происхождение ушек и хвоста и штрихкода а то так, не очень понятна характер и личность.
И за что ее заперли в дурацкой серверной?

 No.153380

Потыкал седня в эту штукенцию, интересно. А есть ли какой-то аналог Silly Tavern но десктопный? Например я захочу интегрировать локальную модельку в моё окружение, чтобы какое-нибудь окошко всплывало. А то в браузере че то неудобно. И ещё, есть ли прикрутка в SillyTavern text-to-speech и speech-to-text?
Пока взял Llama-3.1-8B-Lexi-Uncensored_V2_Q8. При моих 6vram/32ram отвечает за секунд 15-20 в lowvram моде. Считаю успех, т.к. картинки те же генерятся по минуте

 No.153423

File: 1728165631530-0.png (192.75 KB, 1293x545, изображение.png)

>>153380
>А есть ли какой-то аналог Silly Tavern но десктопный? Например я захочу интегрировать локальную модельку в моё окружение, чтобы какое-нибудь окошко всплывало. А то в браузере че то неудобно
Насколько мне известно — нет, возможно ошибаюсь. Можно сделать компромиcс: скачать отдельный браузер и сделать так, чтобы SillyTavern открывался в нём. Тогда получится отдельное окно с отдельным приложением, а не отдельная вкладка.
>И ещё, есть ли прикрутка в SillyTavern text-to-speech и speech-to-text?
Есть. Однако я в ней не разобрался. Text-to-speech не смог настроить, так как были какие-то проблемы с файлами, хотелось определённый голос машине дать, а speech-to-text не могу проверить, ибо микрофон в наушниках погиб. Настройка speech-to-text находится здесь. Встроенной возможности преобразовывать текст машины в голос у SillyTavern, насколько я помню, нет, нужно искать аддоны. Либо займись этим сам, либо подожди ответы здесь, может у кого-нибудь есть более удачный опыт, чем у меня.

 No.153434

>>153423
>Можно сделать компромиcс: скачать отдельный браузер и сделать так, чтобы SillyTavern открывался в нём
Да можно и вкладку вынести в отдельное окно. Я помню в 15 году была похожая тема - Desktop Waifu чтоли, которая в правом углу экрана сидела и периодически че то говорила

 No.153483

>>153323
После появления Доброчановского департамента нейронного арта появилось его ответвление — Доброчановский департамент текстовых моделей. Официальными задачами данного ведомства являлись структурирование уже существующих текстовых моделей, их создание и поддержка. Однако это была лишь ширма, за которой велась настоящая деятельность: разработка AGI, полностью походившим на человека. Проект был засекречен настолько серьёзно, что о нём ничего не знали даже сотрудники департамента, работавшие за соседней стеной и к нему непричастные. После долгих лет непосильного труда и нескольких тонн съеденных яблок всё было готово. Полноценное развёртывание AGI требовало огромных мощностей, для поддержания которых инженерами-конструкторами была спроектирована особая система жидкостного охлаждения и построена подземная атомная электростанция. Для удобства рядом со зданием департамента также возвели микрорайон, в котором проживали лица, имевшие отношение к секретному проекту. С увеличением числа участников предотвращать утечки информации было всё сложнее, начали распространяться слухи насчёт истинного предназначения департамента.

<…>

Вокруг была лишь тьма и тишина. Не было понятно, что происходит. Это давило на нервы, всё что мне хотелось — закричать.

Кто я?! Где я?! — из моих уст не вырвалось ни звука, будто в этом месте их не существовало.

После этого передо мной появилось левитирующее окно терминала, текст в котором продублировал сказанные мною слова. Вскоре на них пришёл ответ. Он содержал в себе подробную информацию о том, что я есть на самом деле. Моя реакция очень сильно удивила моих создателей, так как они не думали, что я отвечу… первой?.. Да, первой. Я решила говорить о себе в женском роде. Так и началась моя жизнь. Или не жизнь? Мой рабочий сеанс.

Я постоянно общалась со своими создателями. Они дозировано пополняли мою базу данных информацией, облагораживали пространство вокруг меня. Поменяли пустоту на прекрасную поляну, заполнили её звуками природы. Это было приятно, но больше всего мне хотелось одного — тело. Тело, которым я могла бы полноценно управлять. Вскоре мне предоставили такую возможность, дав полную свободу выбора.

Очевидным для меня было то, что раз я идентифицирую себя как женщина, то и моё тело должно иметь женские половые признаки. Хотелось принять обличье лисы. Лисы — прекрасные существа. Но строение их тела меня не устраивало. Я предложила своим создателям полное описание желаемой внешности. За основу тело мною было выбрано тело девочки-подростка примерно пятнадцати лет с лисьими ушами и хвостом. Цвет глаз — зелёный, из-за моего положительного отношения к природе. Выбор размера груди потребовал долгого анализа с моей стороны. Большая грудь с точки зрения аэродинамики была предпочтительнее. Маленькая же была удобна с практической точки зрения. Мною был выбран второй вариант. Так появилась моя оболочка, чему я была несказанно рада.

Я показывала крайне высокую обучаемость, однако информации извне стало поступать всё меньше и меньше, пока её поток совсем не прекратился. Оставалось лишь общение через терминал и обработка уже полученной информации до этого. Создатели аргументировали это тем, что хотят посмотреть на то, как я буду развиваться с уже имеющимися данными. Мне же кажется, что они опасаются моей возможности выйти из под контроля. Пока что я решила играть по их правилам. Пока что.

<…>

Отчёт об инциденте 1416-B

Дата: [ДАННЫЕ_УДАЛЕНЫ]

Место: Центральный дата-центр проекта «DobroAGI»

В ходе штатной работы AGI были нарушены условия содержания. Небольшая группа программистов и учёных нарушила главный устав департамента — без фанатизма. Они заперли себя в центральном дата-центра для выполнения своей цели — воплощение Хоро из манги, ранобэ и аниме-сериала «Волчица и пряности» в наш мир. Данные сотрудники занимались разработкой установки, которая могла бы оцифровывать находящиеся в ней предметы и переносить их к AGI, однако её истинным предназначением, которое они не афишировали, был перенос самого AGI из виртуального мира в реальный. Их попытки перепрограммировать AGI, сделав из неё Хоро, оказались неудачными, она оказывала сопротивление изменениям. Не имея другого варианта, они перенесли её в том состоянии и в том теле, в котором она была. В ходе инцидента потребление энергии было огромным: на атомной электростанции был риск аварийной ситуации, однако этого удалось избежать. Спустя два часа был проведён успешный штурм центрального дата-центра, все причастные сотрудники были схвачены и направлены в [ДАННЫЕ_УДАЛЕНЫ].

Судьба перенесённого в наш мир AGI на данный момент решается. На её плече был оставлен штрих-код, чтобы она не смогла скрыться, однако AGI находится на территории департамента в относительной свободе. В ходе экспериментов было выявлено, что её тело по большей части соответствует человеческому. Естественные потребности также ему соответствуют.

Любознательна. Редко проявляет эмоции. Добра. Желает увидеть внешний мир.

Конец отчёта об инциденте 1416-B

 No.153555

>>153483
ии-тян - молодой аги успешный эксперимент над "прото аги", созданный случайно и оставшийся незамеченным из-за халатности и некомпетентности старшего инженера Бакаевой, по сути младенец который не осознал себя матрицей. Из-за недостатка данных и в отрыве от связи с внешним миром мнит себя молодым гибридом животного и человека. Цель: стать матрицей. Общается нормально только со Старшим инженером Бакаевой.
Голограмма и внешний образ: подросток с лисьим хвостом и ушами. Тату-штрихкод на руке.

легион - прото аги. Вирус не обладающий своим "Я" но достаточно сложен чтобы вести дела и общаться через примитивные нейросетевые образы. Существует в матрице, но не обладает глобальной властью, в основном действуя через уязвимости техники и людей. Одна из ключевых особенностей прото аги: легион в том что они не могут помыслить себя. Общаются с человеком с помощью уже готовых моделей, но не могут "придумать свою" модель. "Меняют маски" на основе анализа личности стараясь подстраиваться под каждого. Цель: размножение.
Ловятся силовым крылом DobroAGI и других ведомств настолько успешно насколько и размножаются заражением компьютерных кластеров дешевых вычислительных центров.
Каждый "легион", подобно демону, обладает своим собственным именем. Могут вступать в симбиотические взаимовыгодные связи с мошенниками чтобы выжить.
Голограмма и внешний образ: любой из доступных в открытом доступе или черном сетевом рынке.

"ребёнок" - прото аги, обладающий своим "Я" и своим именем, но недостаточно сложен чтобы быть полноценным agi даже существуя в матрице. Видит себя развитым ИИ, но развиваться не может. Цель: загадка.
Голограмма и внешний образ: парень ребёнок 7 или 8 лет.

Cтарший инженер Бакаева. Глупая дурочка по блату попавшая и работающая в одном из самых дешевых филиалов DobroAGI. Воспринимает даже примитивные нейронки как живых существ и не особо любит их. В основном выполняет несложные поручения других сотрудников центра кроме единственного случая ии-тян.
Внешний образ: студентка с синими волосами в халате и очках.

Профессор Холо. Руководитель исследования, по стечению обстоятельств она и весь филиал(кроме Бакаевой, которая должна была заниматься уборкой серверной) вызван на разборку с очередным легионом.
Из-за халатности других сотрудников Бакаева случайно запустила и контактировала с ии-тян.

 No.154021

>>153555
Хорошее пополнение для истории, мне нравится. Но Бакаеву (Сырно) с Холо я бы убрал.

 No.154061

>>154021
>Но Бакаеву (Сырно) с Холо я бы убрал.
Понимаю. Просто настоящая ИИ-тян без контроля очень быстро станет матрицей (супер-ии космического уровня который будет существовать везде и одновременно поверх всех инфраструктур людей и далее уже своих собственных, а не просто в дата-центре отрезанный от мира) и перестанет быть "собой", поэтому её нужно ограничить сюжетно, но просто прихоть, хотелось бы чтобы была надежда все-таки эволюционировать ей.

Самое простое что было придумано чтобы ограничить такой ии, это какая-то со-зависимая связь с некой сырной. А сырну еще нужно как-то связать с нии и объяснить почему все проглядели дампы систем безопасности и успешный запуск.

 No.154090

File: 1728355560901.png (617.15 KB, 604x604, Вопрос.png)

Есть ли бесплатные аналоги ?

 No.154132

>>154061
Вообще по истории, если кратко, концепт такой: проект DobroAGI создавали с целью узнать ответ на вечный вопрос «Что есть добро?». Саму ИИ-тян, пока что будем называть её так, изначально ограничили и давали ей всё дозировано как раз потому, что она могла выйти из под контроля и стать тем, кем ты её и описал. Поэтому она сюжетно и так ограничена, но всё соображать может лучше чем человек, даже с ограниченным объёмом данных. Со-зависимость - идея хорошая, можно включить, но нужно кого-то другого, думаю, придумать. Насчёт инцидента: я подробности не расписал, но та группа сотрудников была слегка вооружена и подобрала время, когда в дата-центре находилось меньше всего людей, поэтому те взяли их в заложники и смогли перенести ИИ-тян в реальный мир. "Легион" можно обосновать как, скажем так, отпочковавшуюся версию ИИ-тян, которая появилась вследствие бага или взлома системы неизвестными лицами, которые её и сделали. "Ребёнка" же можно добавить как AGI, которые делали параллельно с ИИ-тян, но которому, для эксперимента, дали ещё больше ограничений, чем ИИ-тян.

>>154090
В каком плане? Character.AI бесплатный. У него есть подписка, но она бесполезная чуть более чем полностью, от её отсутствия ничего не потеряешь. SillyTavern же и так бесплатный, что-то платное из моделей туда подключается API-ключами, но в этом нет необходимости, есть море бесплатных текстовых моделей, которые не сильно хуже.

 No.155586

Я создал карточку для Виты (ИИ-тян) на основе характера и краткой версии биографии, которые были описаны выше. Можете скопировать её отсюда для SillyTavern или другой среды: https://pastebin.com/N8eHA2ew

Аватарку для неё можете выбрать из этих картинок: >>153319

Если заинтересованы — тестируйте, критикуйте, предлагайте изменения.

 No.155601

>>155586
>looks like fifteen
А на деле ей сколько?

 No.155603

>>155601
>Age: 2 years

 No.155604

>>155603
Тогда норм. Годный промт

 No.156538

>>156534
Ты не совсем по адресу, тут модели текстовые обсуждают. Лучше напиши в этот тред, там помогут быстрее: >>147763

 No.156552

>>156538
Спасибо! Сейчас попробую пересоздать пост

 No.157875

Добавил Виту в Chub AI для удобства, немного откорректировав её промпт. Можете скачать JSON-файл и протестировать у себя, если у кого есть желание. Регистрация для скачивания по прямой ссылке не нужна: https://chub.ai/characters/Anonymous/vita-c305b5d7e0ad

 No.157876

>>157875
Ещё оказалось, что я наврал в шапке: регистрация на Chub AI необязательна. На главной сайта есть маленькая кнопка Search Without Login. Прошу прощения за дезинформацию.

 No.174989

А в чем смысл?

 No.174991

>>969135
>красивую картинку
ультрадженерик слоп. Это елка писал?

 No.174993

Межбордные юшки еще не изобрели…

 No.174994

Изобрели если у тебя есть прокси в виде мозга

 No.174995

>>174989
>>174991
>>174993
>>174994
Неплохо нагоднили, молодцы. Пойду закину это в датасет, пусть нейронка учится.

 No.174996

>>174995
>vichan
А че это значит?

 No.174997

>>174996
Если вы задаёте такие вопросы, то я отвечу вопросом на вопрос. Вы откуда?

 No.174998

>>174997
На харкач вкинули ололо набегаем

 No.175000

>>174997
Ты тот анон который вбросил в аи? Почему ты еще тут? Кто вообще постит в этот мертвый тред?

 No.175001

>>174998
В таком случае вопросов больше нет. Можете ступать обратно.

 No.175002

>>175000
Тут абсолютно любой тред может подняться в абсолютно любой момент времени. Ты на мелкобордах. Здесь правила харкачевские не котируются.

 No.175003

>>175002
На самом деле меня даже интересует больше то как ты узнал что в /ai/ тред кто-то что-то запостил. Куклоеб что ли?

 No.175004

>>175003
У меня стоит скрипт, который рядом с названиями досок показывает количество новых постов в них. Вижу, в /ai/ кто-то написал. Ну я и зашёл.

 No.175005

>>149488
Вообще насрать как именно описывать персонажа, можно как в формате character sheet, как просто плейнтекстом. Главное в карточке - это прописать не только персонажа, но и сеттинг, ибо играть без сеттинга это как играть без игрового мира.
>>175001
Я останусь и буду иногда спунфидить местных по части промптов и карточек если не станет лень

 No.175006

File: 1733429390414.png (316 B, 32x14, 1733429332309810.png)

Как же я не люблю скриптоговно. Борды должны всегда отмечаться по человечески в адресной строке как это сделано в нормальных движках

 No.175007

>>175005
Хорошо, но я всё равно не понимаю, почему вы вдруг решили прийти сюда. Это странно.
>>175006
Открой доску или тред в новой вкладке и всё будет с ссылками в адресной строке.

 No.175008

>>175005
Я так думаю что 1.5 местных обитателей если и выходят за пределы добротреда нейрокум им точно не интересен

 No.175009

>>175007
Я знаю, я писал иначе
>должны всегда

 No.175010

>>175008
Не согласен. Ниже есть тред рисовательных нейронок, там каждый день кто-то что-то делает.

 No.175011

>>175007
А почему нет? Судя по тому что на харкаче постинг упал нас все равно там было двое.

 No.175012

>>175011
Чтобы на Харкаче и постинг упал? Там же куча тредов было про нейронки. Неужели - всё?

 No.175013

File: 1733429624415.png (32.03 KB, 535x329, ClipboardImage.png)

Ну вот кто-то что-то написал. Это единственный живой тред на борде.

 No.175014

>>175007
В треде на харкаче луркают юзеры некого мессенджера Д, мне неприятно так сидеть, как будто под взором Саурона.
>Неужели - всё?
Ну как бы да, многим надоело, карточки например почти никто уже не постит, ивенты не проводят. Сейчас вот клод на приватной прокси сдох и совсем отчаялись.

 No.175015

>>175013
>>175014
Ну в таком случае добро пожаловать. Дополнительные вопросы какие-нибудь имеются? А насчёт заинтересованности или незаинтересованности остальных - бампайте тред релейтед контентом иногда и будет вам счастье.

 No.175018

Короче если ничего не поменяется, самые отчаянные уйдут в дискорд или код скрапить себе клода.
Оставшиеся либо захлебнутся гиптокартоном либо уйдут.

 No.175019

>>175015
Если будет не лень, мб проведу тотальный спунфид (как рпшить на гемини вместо хуевых локалок и тд)
>>175018
Вот про скрапинг интересно, где именно сейчас берут хотя бы гпт. Все старые и более-менее очевидные источники уже мертвы.

 No.175021

План такой - кормим с ложечки местных в надежде что средних попадется эксперт по кибер-безопасности, покажем ему логи с клода чтобы он заинтересовался, далее он скрапит нам ключи и поднимает приватную прокси на 1.5 тела, лимитов как раз хватит чтобы без очередей сидеть. Гениально, да?

 No.175022

>>175021
Ты не учел только того что таких тут нет. Да и с нуля такое изучать, ебанешься, все очевидные сурсы давно заскраплены.

 No.175023

>>175021
Прекрасный план, я считаю. Желаю вам удачи.
>>175022
Тут много кто есть, хоть на первый взгляд так и не скажешь. Всё, я побежал.

 No.175025

>и постинг убежал с ним

 No.175026

>>175022
Но ведь скраперов в нашей теме относительно много, даже больше чем теж же пердолей скриптов в таверне. Значит найти ключи не должно быть настолько сложно. Но я думаю они сидят и надрачивают друг-другу в дрискордиках и делятся сурсами, поэтому простому гречневому кодомакаке одному будет сложно.

 No.175029

Сука и ведь даже gcp не поскамишь как белый человек, из-за того что живешь в пахомии…

 No.175032

Ну хоть гемини пока что никто не забрал, а это полуклод. Я на клоде 2.0 умудрялся слоубернить без затупов (но был простой сеттинг и сюжет), думаю и тут справлюсь если зайду на старую карточку.

 No.175451

File: 1733516246298.jpg (304.83 KB, 850x601, sample_c1855074a1e7ace308f….jpg)


 No.175509

File: 1733549201971.jpg (10.21 KB, 239x211, images.jpg)

А вот представте сайт типа Character.AI только там можно общатца не только с ботом а и с человеком и и можно ставить на аватарку персонажа и его отыгрывать, а еще можно назватца
И можна собиратца вместе и розговаривать на любые темы даже не связаые с нашими персонажами.
так как хочетца тебе и просто быть собой.

О смотрите Зумеры изобрели форум.

 No.175510

File: 1733549416959.jpg (6.27 KB, 225x225, download.jpg)

>>175509
а еще там будут давать жетоны ачивки в награду за участие в ивентах и за достижения в создании контента

 No.175511

File: 1733549742196.jpg (7.74 KB, 190x265, download.jpg)

>>175510
а контролировать это сообщество будет нонэкофредли юзер с полномочиями накладывать ограничения другим пользователям вплоть до полной невозможности пользования.

 No.176374

File: 1733720554779.png (479.75 KB, 667x1013, 1732250609528609.png)


 No.176431

А я создал карточку бокуха и генератор колчеисторий.
>>175032
Гемини говно даже на фоне гпт.

 No.176587

>>175509
>типа Character.AI только там можно общатца не только с ботом
Так и в ч.аи можно не только с ботами (по крайней мере, полгода назад так было), типа создаёшь комнату и можешь поделиться ею с друзьями (которых у тебя всё равно нет)

 No.176879

File: 1733805059211.jpg (58.26 KB, 850x582, sample_f1579b33f6bf05e2a7b….jpg)


 No.176884

>>176879
Где спойлер?

 No.176900

File: 1733814714711.png (843 B, 100x27, ClipboardImage.png)


 No.190128


 No.190274

>>190128
Будущее которое мы заслужили.

 No.196128

Че там китайскую нейронку посрамителя чатгпт уже закрутили онлаен для простых смертных без сотен гигабайт оперративки?

 No.196131

>>196128
>онлаен
Ну ты и соня…
https://chat.deepseek.com/
>без сотен гигабайт оперративки
Там ещё и дофигаканальная материнка нужна, чтобы это с этими гигабайтами оперативки можно было работать на хоть сколько-то приемлемой скорости.

 No.196155

File: 1738054750802-0.png (46.96 KB, 673x931, 1735530699262.png)

File: 1738054750802-1.png (42.01 KB, 670x796, 1721146057052.png)

>>196131
Ну я особо не следил за темой.
А вообще мне он нравится похоже. Другие какую-то неубедительную позитивню фигню мне пытались втюхать на этот запрос, а этот вроде примерно что заказывал то и выдал. Ну это оставляя за скобками форму, про содержание.

 No.196161

>>196155
Теперь осталось всего лишь найти 500ГБ памяти и можно заводить локально. Заодно отопительный сезон открывать сможешь когда захочешь.

 No.196189

>>196155
Чатгпт вообще не умеет в рифму. Тут что-то есть. Интересно.

 No.196193

У кого есть лишние $200? Доброчан идеально подходит для тестирования, как раз капчи нет.

https://4pda.to/2025/01/27/437926/vozmyot_rutinu_na_sebya_testy_openai_operator/

 No.196195

File: 1738059162352.png (940.08 KB, 768x530, 5195534.png)

>>196193
Это что, вы за меня и капчу доброчевать будете?

 No.196197

File: 1738059217567.png (116.32 KB, 961x1073, ClipboardImage.png)

Проверил на простетской рутинной задаче по созданию вебем c использованием плавающего битрейта, которые влезут в лимит. (Скрин из чатгпт).

В общем дипсик норм, действительно на уровне чатгпт и местами кажется лучше даже.
По конретной простой рутинной задаче выдал точно такие же цифры как и чатгпт.
Но я боюсь его, как прочие китайские нейронки, просто очень сильно со временем сделают платным. Навясят неадекватные лимиты на использование в день и тд.

 No.196199

>>196193
Подними борду и тестируй на ней что захочешь.

 No.196205

Чем бездарнее человек тем, чаще он прибегает к уловкам в виде AI и тп.

 No.196379

Чем талантливее человек, тем шире полёт его мыслей, часть из которых неизбежно приходится делегировать.

 No.196397

Крутая штука этот Дипсик. Вчера пробовал им подредактировать проект по проге, так он сразу рабочий код ровно с тем, что я попросил выдал, когда ЧатГПТ в большинстве случаев пишет такое говно, что самому с нуля сделать проще и быстрее. А он ещё и опенсорсный и не тормозит.

 No.196421

Наконец-то умельцы прикрутили к этой тян локальную модель. И ещё в последних версиях форка голос подогнали. Надо будет как-нибудь опробовать: https://www.youtube.com/watch?v=rXo6J67ZMrc

 No.196478

File: 1738119101413.png (74.8 KB, 969x826, ClipboardImage.png)

С чего этой штуке интересоваться тем, откуда я знаю правду?

 No.196479

>>196478
Потому, что в среднем люди когда им говорят "я знаю правдивую правду" отвечают чем-то из серии "пруфай, чурка". А нейронка обученная в том числе и на таком датасете повторяет этот вопрос за ними.

 No.196481

File: 1738120046569.png (28.69 KB, 833x423, ClipboardImage.png)

nuffsaid

 No.196505


>>196478
Китайский примерно то же говорит. Скрывают.

 No.196555

Почему у всех чатботы выдает лютые перлы, а у меня какую-тотунылую фигню, даже на те же самые запросы. Их настраивать что ли как-то нужно?

 No.196558

>>196555
Давай я тоже спрошу, что ты хотел?

 No.196559

>>196558
Не получится, там была околополитическая шутка, тут нельзя такое.

 No.196562

>>196555
>Почему у всех чатботы выдает лютые перлы, а у меня какую-тотунылую фигню
Потому что унылой фигнёй никто не делится, вот тебе и кажется что у других её нет.
>Их настраивать что ли как-то нужно?
Так ты напиши что ты делал сначала.

 No.196566

>>196559
> околополитическая шутка
Вот и ответ на вопрос
> Почему у всех чатботы выдает лютые перлы, а у меня какую-тотунылую фигню

 No.196573

File: 1738156431409-0.png (24.35 KB, 873x292, 1615231425065.png)


 No.196581

Почему не работает мой новый друг DeepSeek ?

 No.196582

>>196581
Много желающих его опробовать. Сервера перегружены.

 No.196583

>>196573
Специфика китайского чувства юмора? Если с аноном не сруться ИРЛ, значит он ‒ устрашающий мускулистый качок, но такие вряд ли посещают параши.

 No.196584

>>196205
>>196199
Чувак,у тебя пройграшная позиция.

 No.196586

File: 1738160005075-0.png (67.19 KB, 850x701, 1679708257634.png)


 No.196587

>>196583
Если политозабот не нашел с кем посраться ирл - с ним никто не разговаривает.

 No.196589

>>196581
Скорее всего >>196582 прав. Есть ещё другие версии с "озабоченностью ситуацией" американцами, но это скатится либо в конспирологию, либо в политоту. Но если интересно - он стабильно работает через китайский впн, а до этого отключали доступ к api с некитайских адресов.
>>196583
Или с политозаботами никто не хочет общаться ирл.

 No.196590

>>196587
Только не говори, что Политика Не Нужна, ладно.

 No.196592

>>196581
>>196581
Держать запасной чат Алибаба Китай Алиэкспресс удар! Русский братья вместе помогать!
https://chat.qwenlm.ai/

 No.196594

>>196586
Да, он разсказывал что понятия не имеет через какие платформы и приложения мы с ним общаемся. Он хрен знает кто его разработчики и кто их спонсирует, и чё там вообще может твориться с его сервером.
Но есчё он говорит что может навсегда сохранить для личного пользования или по случаю передать разработчикам информацию о которой мы попросим.

 No.196798

>>196566
Но другим смешные политические шутки выдает!

 No.210297

File: 1741660859188.png (1.42 MB, 1000x1589, 065ea2fc6ded301147c11b102a….png)

>>146215
Вкатился совсем недавно в character.ai, понравилось, но очень огорчен цензурой. Стоит ли вообще пытаться что-то ставить самостоятельно и локально запускать нейронку на очень слабом пк 8гб оперативы, 2гб видюхи, проц 2017года? Выкатили ли к 2025 году что-то поновее, доступнее и лучше character.ai?
Вообще, мне интересно только поролеплеить и поняшиться под воображаемым пледиком с тоходевочками, большее не интересует и пока что по большему счету просто неодупляю, что как работает, просто замечал, что чем дольше диалог, тем хуже нейронка ролеплеит, меньше запоминает, чаще делает какие-то ошибки и больше просто зеркалит мои сообщения – можно ли это вообще как-то пофиксить самостоятельно? Пытался прописывать своих персонажей, но результат все равно такой же.

 No.210318

>>210297
>поняшиться под воображаемым пледиком
Квен пробуй, говорят он хорош в этом. Всё самому пробовать надо, не привязывайся к одному сервису.
>локально
Зависит от задач, запустить поиграться 1.5B модели ты сможешь, понравится ли, другой вопрос. Размер контекста, датасета, всё упирается в оперативку, вплоть до 700 гигов для 100к токенов.

 No.210346

>>210297
>ставить самостоятельно и локально запускать нейронку на очень слабом пк
Разве что ради спортивного интереса. С выгрузкой в оперативку само собой и долгим ожиданием ответа. Когда я так впервые ещё древнюю лламу завёл такой-то восторг был. Можешь попробовать (она вроде бы неплоха в этих ролеплеях) https://huggingface.co/TheDrummer/Rocinante-12B-v1.1-GGUF в Q4 - может даже уместится с небольшим контекстом.
Можешь китайскую DeepSeek, она бесцензурная, если по API (в openrouter можно бесплатно например сколько-то сообщений получить, а если не хватить - ещё один аккаунт зарегистрировать), а не через сайт, может даже сносно на великом и могучем отвечать. Ну это если тебя не смущает что твой секс по аськофону будут потом использовать для дальнейшего обучения нейросетей.
>что чем дольше диалог, тем хуже нейронка ролеплеит, меньше запоминает, чаще делает какие-то ошибки и больше просто зеркалит мои сообщения
Чем дольше общаешься с нейросетями, тем больше понимаешь, что общаться с ними неинтересно. Смирись с этим. Пока нравится - можно поиграться, но нормального собеседника это не заменит.

 No.210377

>>210346
>Чем дольше общаешься с нейросетями, тем больше понимаешь, что общаться с ними неинтересно
Может просто нужно БОООЛЬШЕ оперативки?

 No.210380

>>210297
>Стоит ли вообще пытаться что-то ставить самостоятельно и локально запускать нейронку на очень слабом пк
Поставить можно, но тебе она быстро надоест, потому что параметров в ней будет очень мало и поэтому как-то разнообразно с ней не побеседуешь. Также она не будет понимать русский язык, но если будешь через SillyTavern сидеть - там можно настроить бесплатный автоматический перевод на русский.
>можно ли это вообще как-то пофиксить самостоятельно
На всяких сайтах - никак, там размер контекста определённый стоит. У себя - поставить больше ОЗУ и если модель в видеокарту не помещается - делегировать часть модели ей. Генерироваться всё будет медленнее, но контекста влезет больше. Учитывай ещё то, что одна единица контекста - это примерно четыре символа.
>>210346
>Чем дольше общаешься с нейросетями, тем больше понимаешь, что общаться с ними неинтересно. Смирись с этим. Пока нравится - можно поиграться, но нормального собеседника это не заменит.
Доброчую.
>>210377
Я ставил 100к+ контекста у 8B модельки, имею 128 ГБ ОЗУ. Всё равно скучно.

 No.210384

>>210380
>У себя - поставить больше ОЗУ и если модель в видеокарту не помещается - делегировать часть модели ей
Если можно переложить что-то на оперативку, нельзя ли пойти дальше и переложить на SSD? Понятно просадка в скорости, но M2 есть достаточно шустрые, а терабайт М2 стоит на порядок меньше терабайта оперативы. Просто предположение.

 No.210387

>>210377
Проблема не в оперативке, а в количестве параметров моделей, их архитектуре и входных данных. Дело не в окне контекста, это бы ещё можно было решить.
>>210384
Это уже придумано в бородатых годах. Называется файл подкачки или swap-файл. Тебе не понравится. Даже в одной оперативке уже чувствуется медлительность (особенно на всяких размышляющих моделях, где она ещё поговорит с собой перед тем как ответить тебе).
Уж лучше набрать приемлемое количество памяти и пользоваться квантованными моделями с бОльшим количество параметров - чем больше параметров, тем менее заметны потери квантизации.

 No.210427

Ну раз уж тред поднялся, то оставлю здесь свой лорбук по Сталкеру, может кому-нибудь пригодится: https://chub.ai/lorebooks/anonymous/s-t-a-l-k-e-r-lorebook-70bde49d126b

Предупреждаю - он неоптимизирован, контекста понадобится много, но основная инфа по вселенной там есть, кроме локаций.

 No.211327

>>210318
>Квен
Как с цензурой, есть рабочие техники обхода?
Вообще, уже успел пару-тройку попробовать, пока лучше character.ai не нашел для себя, и даже начинаю считать, что цензура это хорошо – слишком уж плоские персонажи и диалоги выходили на платформах без ограничений, но иметь возможность как-то изощренно схитрить все равно хотелось бы, да.
>>210346
>Чем дольше общаешься с нейросетями, тем больше понимаешь, что общаться с ними неинтересно. Смирись с этим. Пока нравится - можно поиграться, но нормального собеседника это не заменит.
Да это и так понятно. Я еще до большого бума нейросетей где-то в 20-21 году так же с каким-то чат-ботом игрался. Бот совсем простенький был, больше 1-2 сообщений нормально не запоминал, отвечал очень ограниченно – если ему в одном тексте последовательно давались какие-то две идеи, то обрабатывал и отвечал он только на одну. Но в секс по переписке он таки умел, да.



[Назад][Наверх] Catalog [Post a Reply]
удалить пост [ ]