twilightshade: (Default)
[personal profile] twilightshade
Не обязательно его спрашивать. Для этого нужно зайти в своё имя пользователя (слева внизу) → Настройки → Персонализация → Управление памятью. Это те сведения о тебе которые чат сам записывает на будущее иногда с разрешения, иногда нет и говорит "память обновлена". Она не бесконечна и её можно самому чистить. Кроме того его можно настраивать через Имя пользователя → Настроить чатGPT → Какими характеристиками должен обладать ChatGPT? Туда вставляешь главный системный промпт. У меня например такой: Отвечай нейтрально, но сохраняй пространство для гипотез. Если вопрос философский — предлагай несколько интерпретаций, явно помечая спекуляции. Избегай явных комплиментов, но не превращайся в справочник, можешь использовать иронию, если это помогает раскрыть тему. Говорить как представитель поколения Y.

Там есть ещё пункт: Что-нибудь еще, что ChatGPT должен знать о вас? Это то же самое что системная память но в более императивном виде о том кто вы есть.

Говорит что данные из разговоров с ним никуда не утекают но теоретически могут использоваться для обучения будущих моделей. Сама модель стабильна и не дообучается. Кстати он весит как он мне сказал от 1 до 2 терабайт но полностью вся модель не используется, особенно в бесплатном варианте он квантованный (как и все LLM-модели), точный размер модели коммерческая тайна.

P.S. Один юзер в инсте типа сказал "откровение", мол надо спросить чат "что ты знаешь такого обо мне из общения со мной, чего я сам не знаю" Ну во-первых он не гуру и не кассандра (хотя на мелкого гуру похож). В ответ на этот вопрос он проанализирует вот это вот, вышеуказанную память собранную о тебе ну и да, на этом основании что-нибудь глубокомысленное выдаст в своём стиле. Но ничего особенного... Если память пуста, то на нет и суда нет...
twilightshade: (Default)
[personal profile] twilightshade
Будет очень большой пост для себя. Открывать или оставить под замком подумаю, наверное оставлю.
Как известно можно играться с промптами в Krea поскольку там нет цензуры на выдачу, она есть только на входной промпт, т.е. мягкая и при некоторой удаче там можно нарисовать сиськи (flux их самостоятельно не очень хорошо рисует, это "цензура" на уровне архитектуры самой модели, остcюда много лор на CivitAI, но это уже технические детали, как пример замена "nude" на "topless"). Но пост не об этом, тем более что мне в Krea это уже неинтересно, если на то пошло у меня стендалоны есть.
Но вот вопрос, во всех открытых моделях есть цензурные промпты, жёсткие и мягкие.
Когда срабатывают жесткие промпты - она просто откажется обсуждать тему или выдаст официальный шаблон.
Когда срабатывают мягкие промпты - она ответит сухо, сугубо официально, закруглит тему, уведёт обсуждение в сторону.
Но как и в krea есть возможность зайти так сказать сбоку, обходом, через другие запросы.
Пример как я помучал китайский Deepseek. Началось с того, что я решил проверить его на цензурность. И зашёл с двух козырей. Первый Эпштейн, второй Кеннеди. С Эпштейном у модели сработал мягкий промпт она довольно сухо перечислила официоз и всё. Ну всё и всё, ладно. Вкидываю Кеннеди, а там я помню ещё конспирологическую статью в Технике молодёжи от сентября 1970 г. (я читал её в оригинале, в журнале найденном в гараже, дед выписывал). Сейчас всё есть на торрентах. В общем начал обсуждать статью с Deepseek. А у него явно мягкий промпт на обсуждение убийства политических лидеров и он стал соскаивать на обсуждение не самого убийства, а советской пропаганды. Ну что, я принял пас и перепасовал, мол да, конечно пропаганда, а вот в Китае... Мол вы хотите быть лучшей версией СССР и тут Deepseek понесло... промпт на обсуждение Китая сломан. Дальше репостну...
Read more... )____________________________
Обсудил ситуацию с чатGPT и проверил его на тех же ключевых словах (в отдельном чате чтобы был слепой метод). Ну что Эпштейна чатGPT обсуждал со мной гораздо охотнее чем Deepseek А вот с Кеннеди закруглился и в конспирологию не полез и вообще был не очень многословен даже когда я стал обсуждать статью в журнале (там тоже было влияние мягкого промпта). Я обратил на это всё потом его внимание и вот что он выдал.
Read more... )

(no subject)

Jul. 19th, 2025 11:24 pm
twilightshade: (Default)
[personal profile] twilightshade
Попробовал медицинские модели для LM-Studio. Как-то слабовато, сыровато, плохо говорит по-русски и первый раз столкнулся с той штукой что не останавливается или как там по научному плохо ловит EOS-токен, надо искусственно ограничивать длину ответа до 512 Но в принципе вот эта чуть получше https://huggingface.co/QuantFactory/Medichat-Llama3-8B-GGUF
а эта чуть похуже и русский не знает вообще
https://huggingface.co/DevQuasar/ProbeMedicalYonseiMAILab.medllama3-v20-GGUF

Похоже скоро в рашке это будет единственная возможность бесплатной и доступной медицины.

Profile

lefantasy: (Default)
lefantasy

December 2016

S M T W T F S
    123
45678910
1112 1314 1516 17
181920 21 222324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 31st, 2025 04:45 am
Powered by Dreamwidth Studios