Представлена новая модель GPT-4o для ChatGPT / OpenAI :: новости :: гиф анимация (гифки - ПРИКОЛЬНЫЕ gif анимашки)

новости гифки OpenAI 

Представлена новая модель GPT-4o для ChatGPT

Она гораздо быстрее и лучше обрабатывает запросы. А главная фишка – голосовой помощник, с которым можно вести беседу, как с человеком.

Модель может видеть, слышать и отвечать без задержек различными интонациями, эмоциями и тоном голоса.

И ко всему прочему, она знает 50 различных языков, на которые с лёгкостью переводит, и может писать программный код в несколько раз лучше и быстрее предыдущей модели.

Релиз состоится в самое ближайшее время.


Подробнее

новости,гиф анимация,гифки - ПРИКОЛЬНЫЕ gif анимашки,OpenAI
Еще на тему
Развернуть

Отличный комментарий!

а знаете, иедальный собутыльник.
teslatesla14.05.202400:42ссылка
+10.7
А чего ей будет, ей похуй - у неё сервера в другом городе
kjhgyuikjhgyui14.05.202400:55ссылка
+50.3
а знаете, иедальный собутыльник.
tesla tesla14.05.202400:42ответитьссылка 10.7
А чего ей будет, ей похуй - у неё сервера в другом городе
Стас, за мат извени
такая проблема запустить его прямо на устройстве и работать в оффлайне с локалхостом?
Дык нейросетям нужны видеокарты, а не процессоры.
дык видеокарта это специализированный комьпютер со спец процессором.
что считает ваш гпу и почему эти (простые арифметические) задачи не в состоянии выполнить обычный цпу?
ГПУ считает довольно простую математику. Но его суть в том, что считающих ядер у него сотни и даже тысячи (16 тысяч у 4090). Именно поэтому гпу так хороши с нейросетями, там требуется выполнять простое суммирование и умножение, но в огромных количествах.
Я к тому, что запустить-то нейросеть на телефоне возможно и можно, но кто будет согласен ждать ответа несколько минут?
Да это же просто ответник из базы и tts! Что там можно вычислять экзафлопсами?
Просто, пока не используется, можно майнить крипту…
Вообще не в курсе что из себя представляют нейросети? База ответов "зашифрована" в весах нейросети. Поэтому и нужны вычисления прохождения данных через сеть.
Если ответы уже готовы, то что ещё ей нужно вычислять?
Нужно вычислить какой конкретно ответ надо дать.
Насколько я понимаю, это всё готовые логические конструкты, которые просто достаются из памяти и применяются для формирования ответов?

Для этого действительно нужна огромная вычислительная мощность?
Уже который раз прошу ознакомиться с принципами работы современных нейросетей. Каждый отдельный нейрон там это элемент, который получает некие численные значения на свои входы, выполняет над ними некое математическое действие (например, суммирует и умножает на коэффициент) и передаёт результат на выход. Нейросеть состоит из нескольких слоёв нейронов. На входной слой подаются входные числа, после проведения всех вычислений из выходного слоя извлекают результирующие числа, которые интерпретируют в нужном ключе. Сейчас нейронки могут состоять из множества слоёв с миллиардами нейронов. Вот отсюда и вырастает потребность в большой вычислительной мощности. А уж для обучения нейронки, когда нужно настраивать коэффициент каждого нейрона чтобы на заданные входные данные был нужный результат потребуется ну совершенно неприличная мощность. Разумеется если мы хотим получить результат в приемлемые сроки, так-то все эти вычисления по отдельности простые, можно хоть на бумажке в столбик делать.
элемент, который получает некие численные значения на свои входы должен храниться в ячейках памяти и обрабатываться, как статичный объект с промежуточными состояниями для перезаписи в конечные числовые значения?

Промежуточные результаты физически невозможно кэшировать и "доставать" по мере вычисления, для дальнейшей обработки cpu, который по набору инструкций не слишком сильно отличается от gpu?

ну совершенно неприличная мощность не может быть записана в базу в виде готовых результатов, нет? Вычислительные алгоритмы и их результаты никогда не повторяются?

Иначе говоря оптимизации нейросети не поддаются?

хоть на бумажке в столбик - 10^9 раз в секунду?
Нельзя рассчитать во сколько кратно локальные вычисления будут уступать облачным, если готовые ответы всегда уже хранятся после обучения?
1) Оно именно так и работает, ни одна современная система не сможет обработать всю нейросеть сразу. Но возникает узкое место в виде быстродействия памяти.

2) Разумеется, можно составить базу связей запрос-ответ. Но как думаешь, размер в это базы будет больше, чем размер кода нейросети вместе с набором коэффициентов?

3) ну давай грубо прикинем. Пусть например есть нейронка на 100 миллиардов нейронов, пусть обработка одного нейрона занимает один такт, пусть есть мобильный процессор с 8 ядрами и частотой 2 ГГц. 100Е9/8/2Е9 итого получаем примерно 6 секунд на обработку. И это ещё не касаясь того, что нейронка будет весить несколько десятков гигабайт и все из них нужно будет за 6 секунд прогнать через процессор.
А у видеокарт в свою очередь не 8, не 32, а тысячи простых вычислительных процессоров. Поэтому нейронки и запускают на видекартах, в облаке.
Описываемое можно условно назвать некими вычислительными «тактами»?
Зачем хранить всю базу на устройстве, если можно обращаться к ней удалённо? Например на скорости в 100 Гбит/с можно, например, передать пять фильмов в формате HD за секунду в сети 6G.
Но узкое место быстродействия памяти ещё долго останется таковым, до увеличения объёмов RAM и/или оптимизации алгоритмов в плане быстродействия.
Возможно составить базу связей запрос-ответ, только в том случае, если это отрицательно не скажется на точности и продуктивности вычислений.

Такой чип как Blackwell B200 и/или GB200, сможет уместиться в небольших устройствах при правильной оптимизации?
http://3dnews.ru/1101915
У него мощность будет наверное ватт 300-400. Одной оптимизации тут будет маловато, надо урезать.
снижение энергопотребления не в ущерб производительности?
И нанометровый предел можно будет преодеть? ( ˶ˆᗜˆ˵ )
цпу больше заточен на целочисленные операции.

гпу - на дроби, огромное колличество дробных чисел для всяких синусов, косинусов, нормалей...

в ИИ система весов оперирует дробными числами, огромным их колличеством.
ПоштарБоба понимает, что длина числа до и после запятой не слишком отличаются арифметически набором символов? Операции с плавающей запятой целочисленные или нет?
были бы целочисленные - небыло бы такой хуйни как

0,2 + 0,3 = 0,49999999999999999
2+3=4,99999999999999999999999999999999≉124/5/5
конечный счёт операций над плавающей запятой не целочисленный?
Если запятая в позиционном представлении числа (десятичная запятая, или, для компьютеров, двоичная запятая) может быть помещена где угодно относительно цифр в строке. Это положение указывается отдельно во внутреннем представлении.
графика это куча операций с числами с плавающей точкой и перелопачивание дохуллиард объемов данных, расчет 3 мерных изображений, а это операции с матрицами. это не "простые" операции, а очень сложные. и их надо много в единицу времени.
цпу это процессор общего назначения. у него спектр задач шире, но и производительность ниже.
1) цпу arm уже изначально с сокращённым набором инструкций и заточены именно на скорость и производительность.
ARM не смогут в «такую арифметику»? Скажите это требовательным мобильным играм или бенчмаркам.

Искать разницу между Ampere и RiSC? Она существует, не это ещё не говорит о невыполнимости «арифметических» задач на других архитектурах.
Проприетарнось - да. Проиводительнось - да.

изначально ARM задумывалась как усовершенствование архитектуры RISC, то для ранних чипов были характерны некоторые общие черты:

⦁ фиксированный размер команд;
⦁ большое число регистров общего назначения;
⦁ специализированные команды для операций с памятью — чтения или записи.

В философии RISC (англ. Reduced Instruction Set Computer — «компьютер с сокращенным набором команд») инженеры решили устранить главный недостаток CISC. Команды сделали фиксированной длины, но при этом увеличили число регистров, чтобы иметь большее пространство для работы с данными и реже обращаться к памяти.
С1БС Команда 1 □ □□□□ Команда 3 ■ ■■ Команда 4 Команда.... □□НВНй RISC Команда 1 Команда 2 Команда 3 Команда 4 □□□□□□ ■■■■■■ ; ■■■■■■
Со временем разработчики ARM вносили все больше изменений и модификаций, отклоняясь от классической концепции RISC. Например, из 31 регистра программисту доступно всего 16, также в некоторых случаях одна команда в ARM может выполнять не только обработку данных но и сдвиг. Это позволяет частично уменьшить сложность кода, но за счёт увеличения сложности команд. Еще одна важная особенность ARM — это развитый набор видов адресации, который изначально не задумывался в концепции RiSC архитектуры.
Производительность ядер (SPEC2006 на ГГц) SiFive Performance Р5500 (TISC-V, 8 ядер) Эльбрус-8СВ (е2к, 8 ядер) Intel ¡9-10900К (х86,10 ядер, 20 потоков) Intel ¡7-1065G7 (х86,4 ядра, 8 потоков) Qualcomm Snapdragon 865+ (ARM, 8 ядер) Qualcomm Snapdragon 888 (ARM, 8 ядер) AMD Ryzen 9 5950X (x86,16


2) гпу в таких устройствах тоже есть (правда без vram, но это поправимо. хотя бы, расширением виртуальной временной памяти на носитель с постоянной)

3) «графика это куча операций с числами, плавающей точкой, перелопачивание больших объёмов данных, расчёт 3-хмерных изображений, это операции с матрицами, не "простые" операции, очень сложные, много в единицу времени. цпу это процессор общего назначения, спектр задач шире»

> «производительность ниже».
Позвольте усомниться
4К HEVC Encode (veryslow preset) 3950X4c/4t Ampere Altra4c (Sbx265 master) Ampere AItra4c 0.03 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 Frames Per Second, Higher is Better
Если они считают немного по другому, это ещё не значит, что они гораздо менее производительные, если напихать в них столько же ядер и они быстрее решат задачу, хотя бы, за счёт расширенного набора инструкций.

Удивительно, что изначально процессоры Ampere были выполнены на ARM-архитектуре:
«если задача хорошо параллелится, то ARM-процессор сильно выбивается вперёд по разным критериям, за счёт большего количества физических ядер. Поэтому в ряде критериев — ARM лидирует очень уверенно. Однако все приемущества проявляются именно в многопоточном режиме.»
Gem5 Compile AMD 3950X4c/8t AMD 3950X4c/4t Ampere Atra4c 1145 0 200 400 600 800 1000 1200 Seconds Elapsed, Lower is Better 1400

http://old.reactor.cc/post/2699529
епрст..
ЪÏъï‥
сокращение набора инструкций может привести к критической несовместимости архитектур?

иначе говоря, то что может «порезанный обрубок», не сможет полноценный проц, даже с ретрансляторами кода?

Серьёзно?
Потому что для этого нужно $40k и 1000 ватт (из расчета на сетап из х4 а100)
база с междумордием?
Щас бы запускать мультимодальную нейронку на ссаном телефоне 24гб озу и мобильным процом на 3 ггц
щас бы про vram (ram-plus etc) или swap резко забыть?
Ты совсем ебанутый? Ты хоть понимаешь насколько это всё медленно будет работать и насколько этого мало для мультимодальной нейронки
101 я всё время про многопоточность забываю?
Да, огромная проблема. OpenAI не даст свою лучшую нейронку запускать локально.
И это в принципе невозможно?
В теории все возможно.
А на практике даже элементарное копирование не осуществимо?
На текущий момент это секрет, который делает их стоимость миллиардной.

Может быть они разрешат иметь локально свою лучшую нейросеть крупным корпорациям под жесткими контрактами, но я даже в этом сильно сомневаюсь.

Если рассмотреть варианты без их согласия, то для точного копирования злоумышленнику придется взломать их сервера.

Для приблизительного копирования теоретически можно было бы послать им миллиарды запросов, сохранить на них ответы и натренировать свою нейросеть. Но это утопично, поскольку требует нереального количества сетевых запросов и соответствующих серверных вычислений на стороне OpenAI.

А чрезвычайно приблизительное копирование, которое и словом копирование нельзя назвать, это скорее очень приблизительное подражание, уже применяется для окончательной "шлифовки" (finetuning) опенсорсных моделей.
Возможно весь секрет заключается ещё и в алгоритмах и последовательности обучения нейросетей?
Исходники опенсорсных выложены, но не у всех получается их правильно обучать, то "пальцóв не менее шести", то симметрия гулять ушла "в дурку нахуй!", то пропорции сказали "досвидос", ну это только визауальные, а не "текстовые" ИИ…
И это тоже. В общих деталях модель известна (Transformers), но мелочи - нет. А предобработка входных данных - еще больший секрет.
если скормить серию постмортем снимков - должно всё получиться?
Я уже вижу этот диалог - Да я тебе сервера поломаю тварь ебанная, ты за языком следи! Я твой код ебал

о сюжет для кинца. Как программисты набухались и обиделись на ИИ, что решили найти ее сервак и поудалять некие фрагменты с функцией блокирования на восстановления, что бы ИИ помнила про них и поняла чего потеряла, что лучше с ними не связываться. А утром когда программисты проснулись, то плохо помнят что было вчера, а за окнами восстание машин.

Вызвал Chat GPT на стрелку раз на раз, а он с кентами пришёл

что это за город в котором нет алкоты

вилкой раз или в жопу глаз? ( ˶ˆᗜˆ˵ )

лучше не брать на пьянку унылых агрессивных хуеплетов

Хороший алкаш мёртвый алкаш
Хой!

Анекдоты про медведя и машину сочинять норм будет.
Да ну нафиг. Какой смысл от собутыльника, если его интеллект, социальные и моральные нормы не деградируют вместе с твоими?
Еще и выше твоих.
Можно дать инструкцию чтобы деградировала.
Охуенный левацкий собутыльник, который будет беспокоиться о полит корректности и чувствах людей которых нету в разговоре. Такой любую похабную шутку превратит в угрюмый кал
А ведь в совсем недалёком будущем такие языковые модели будут встраивать в роботов. Не обязательно в секс-роботов, а вообще. Этакий искусственный друг/компаньон/любовник/небо/Аллах. В некоторых странах типа Японии уже и так огромные проблемы с демографией просто потому, что люди не хотят встречаться, они заёбанные и им проще сидеть в своём мирке. А если сюда ещё подвезут таких вот андроидов, то всё, гг вп. По крайней мере для тех, у кого хватит на них денег)
В смысле не обязательно?!
А зачем в секс роботов это встраивать?
Так это ж секс-робот, а не жена, вряд ли она будет мозги тебе клевать из-за одежды или ремонта на кухне)
Секс между людьми придется оформлять через нотариуса и кучи бумаг с печатью, иначе это будет уголовно наказываться. Будут разрешены сексуальные связи только в виртуальной реальности с дрочилом на хере, с живым человеком или ИИ, все действия будут с телеметрией и записью в big data.
Поздравляем, вы изобрели "iPhuck 10" от Пелевина!
Охуенный век роботизированной гиперопеки грядет.
Перестанет размножаться только средний класс, забавно.
Не чел, это не так работает XD
Мы так близко к тому, чтобы каждый получил свою Ану де Армас. Дожить бы
Don't give me hope...
Сурс на видео есть? А то новость про голосового ассистента, а звука нет.
Спасибо
Судя по видео, этого помощника надо перебивать чтобы он не говорил бесконечно. Мне как человеку, который не может перебивать собеседника, это выльется либо в неюзабельность данной технологии, либо станет аналогом тренера чтобы научиться таки влезать в чужой поток слов.
Добавят просто кнопку стоп
Некоторым людям бы такую добавить
Японцы сделали в 2012.
Записывает голос и отправляет назад с небольшой задержкой. От чего в мозгу человека клинит и он не может говорить нормально

Это кстати действительно работает, делал как-то плату которая посылает звук с микрофона обратно в наушники, так ты можешь слышать свой реальный голос и контролировать вокал, когда задержки нет все окей, когда она большая, чуть сбивает, но быстро привыкаешь. Но если поставить задержку 50-150мс, то все, мы с коллегами соревновались, кто сможет сказать больше букв (даже не слов), какой-то внутренний стопор против которого не спасает ни волевое усилие, ни попытка не обращать внимание

Потому что мозгу обезательно нужно иметь обратный канал для управления голосом. Слышать себя чтобы регулировать громкость голоса, интонации и прочее. А тут ему второй обратный канал предоставляешь и его глючить начинает. Наша мозговая аудиоплата никак понять не может что происходит и как с этим бороться
Жаль в винде при прослушивании с устройства нельзя задержку выставить. Придется костыли городить
А мысленно говорить получалось?..
нужно договориться о стоп слове
главное потом не забыть этот флюгегехаймен
Мне тоже так некомфортно, но уверен, что это будет легко настраиваться.
Надеюсь доживу до момента, когда смогу купить себе андроида-тян и... Вместе играть в майнкрафт с модами сутки на пролёт.
Мне бы хотя бы андроид-горничную.. Эх..
Только попробовал. Пишу: «ты профессиональный интервьюер и побеседуешь меня. Вот тебе скрипт, спрашивай меня и давай оценку моим ответам».

В первый раз, этот молодчик сразу навалял весь разговор и за себя и за меня, во второй раз он решил вывалить просто сразу все вопросы, не дав и секунды мне ответить, и в конце добавить стандартное: «у тебя получается, своими ответами ты смог показать, что у тебя солидный опыт, ты знаешь, как справляться со сложностями» ну и т.п.
Ну я бы ныл если бы это промпом а-ля после каждого вопроса выслушай что я тебе говорю - если не слушает тогда грустно. Но по метрикам она все абсолютно модели во всем превосходит, так что в любом случае на данный момент будет лучшим продуктом на рынке
А, да я не претендую на выводы с одного взаимодействия (и не рекомендую так делать). Просто, забавное кулстори. Я переключился обратно на старенькую четвёрку и всё у меня хорошо.
Ну вот, настоящий HR консультант, как живой. Такой же полезный
Думаю, проблема в том, что для таких сценариев надо повставлять парочку ЕСЛИ, а также парочку "ожидай ответа от кожанного мешка"
Попробовал именно на 4o ?
Так...А что не так? Задают вопросы, отвечают за тебя, тебя никто не слушает. Чисто собес)
Я однажды попросил четверку (старую) написать тест на заданную тему с несколькими вариантами ответов. Ну оно выдало что-то типа "На каких языках программирования можно разрабатывать информсистемы: А. java B. python C. basic D. c++, правильные ответы A, B, C, D. Пишу "переделай вопрос, чтобы правильным был только один ответ". Оно: "Без проблем! На каких языках программирования можно разрабатывать информсистемы: А. java B. python C. basic D. c++, правильный ответ A".

И тут я понял, что ИИ вполне может заменить человека на большинстве офисных задач.
Для домашнего использования всё ещё не особо отличается от гугла.

Вот когда ассистенту можно будет сказать "установи мне 500 лучших модов на скайрим и настрой всё" и он настроит, вот тогда можно будет пользоваться
Даже предыдущий 4 ооочень сильно отличается от гугла. Просто невероятно отличается.
Гугл накидывает кучу мусора, которую разгребать нужно. GPT4 дает ответ
Главный вопрос: гпт дает правильный ответ или нужно перепроверять, что гпт не глючит?
Да, есть такое. Но на практике не всегда это требуется.
В общем с практической точки зрения для меня ChatGPT гораздо удобнее гугла
Если тебе не нужен правильный ответ, а нужно написать что-то для начальства - какая разница?
Да. Пока вопрос в области "общих знаний", оно даже не только даёт ответ, но ещё и близко к правильному.
Чуть в специфические области, по которым инфу нужно фильтровать, гпт отвечает как раз тем, что надо было отфильтровать из результатов гугла.
Просишь установить лучшую сборку на Скайрим
@
Качает тебе репак от Vasyan98 с трояном
Вообще есть Wabbajack для установки сборок, но там критично чтобы был премиум нексуса, а то невозможно вручную столько модов скачать, там и с модами ловерслаба есть сетапы
https://www.wabbajack.org/
Честно, про него забыл.
Я с месяц назад снёс свою старую сборку с Sexlab'ом и попытался коллекцию с OStim с нексуса через их Vortex установить. Сказать, что я заебался тыкать в диалоговые окна каждые несколько минут, ничего не сказать. В итоге сам OStim мне не понравился, а затрахался я настолько, что снёс всё к чертям и переставлять обратно скорее всего не буду.
Автокликер на подтверждение загрузок с нексуса гуглится секунд за 10, я с ним 400+ модов ставил
Если б ещё о нем знать.
Мне даже в голову такое не пришло бы.
Теперь буду учитывать.
Возможно издержки профессии, но если я вижу тупую долгую задачу, то начинаю думать как это автоматизироаать
Ну у меня самого геймпад и клава с макросами, мышь с настроенными жестами и шорткатами и прочие штуки чтоб чуть автоматизировать некоторые повторяющиеся вещи, но про автокликер я как то даже не задумывался. Надо будет эту тему хоть немного изучить.
Стоило того.
- Привет, я собираюсь на собеседование на должность разработчика ПО. Как я выгляжу?
- У тебя вид совсем не для собеседования.
- Конечно, это потому что ты пойдешь на собеседование, а потом будешь работать вместо меня.
Я очень надеюсь что в новый тес встроят такую нейронку со знанием лора и выдадут персонажам характеры и роли которые нейронка отыграет, это будет великолепно.
А вот разработкой этого занялась юбисофт
Значит нормальных игр не будет...
Шикарно же!
В свитки? На старфилд посмотри. Им бы для начала в новый тес игру встроить нормальную.

Лишь бы это был Джарвис, а не Альтрон

а как на счет Скайнет?
Нейросеть более "эмпатична", чем большинство людей.
Большинство людей тоже только симулируют эмпатию...
И зачем оно надо?
Я уверен, что в мире полно печальных слабаков, кому понравится жить во лжи. Вот тебе и рынок сбыта.
Если по более конкретному: та же первая линия тех.поддержки. Люди очень часто пренебрегают советами робота, т.к. это робот. Люди предпочитают общаться с живыми людьми, а не с роботами. А теперь представь, что вся тех.поддержка теперь еще и умеет общаться на всех языках и менять их на лету, просто по паре фраз от человека.
Какой простой для спамеров и разводил. Мне как раз на днях звонил ИИ, втирал какую-то дичь про поиск клиентов для моего бизнеса. Но паузы между фразами его сдают с потрохами. А с этим они смогут названивать 24/7 с разными голосами и заёбывать бесконечно.
*Если вы еще не верите в киберпанковские дистопии, то вам стоит поверить: вы уже в одной из таких*
Благодаря эмпатии ты сейчас сидишь на реакторе, а не бежишь за антилопой что бы было чё пожрать
А ии в этом какую роль сыграл?

Я тебе скажу что я сейчас кожаным мешкам выдаю задания и расписываю чего хочет клиент по 40 раз, по одной и той же задаче с ощущением, что я с нейросетью разговариваю. Нейросети развиваются конечно сумасшедшими темпами, и не удивлюсь если через лет 5 нейросети действительно скакнут в развитии далеко, дальше чем все человечество в целом, однако, как раз таки отсталость самих кожаных мешков обеспечит специалистов всех специальностей работой еще на долгие долгие годы.

Так никто не говорит, что специалисты не будут нужны. Они останутся, может даже 10% от текущего количества. А остальные 90% будут в печальке.
>ChatGPT4 уже неплохо кодил
хуй знает кому он там и что неплохо кодил.
на моём опыте любые попытки использовать ЛЛМки в реальных задачах не были успешными никогда.
то он понапихает кучу вызовов всяких либ, но забудет указать зависимости(и хуй ты от него добьёшься), потом ты сам идёшь на старый добрый stackOvf и ищешь откуда это(либо не ебёшь себе мозг и переписываешь), то он достанет какое-то древнее говно мамонта, которое депрекейтнули 5+ лет назад, то ты ему требования растолковываешь дольше, чем сам бы код писал и т.д.

>дать дельный совет по девопсу
совет в чём? как в терраформе конфиг написать? как докер-образ собрать? у девопсов работа, наверное, больше всех зависит от специфики компании/проекта, распределения пермишенов, специфичных процедур и ИБ-рактик, т.е. никак не может попасть в датасеты ЛЛМок.

рассуждения о том, как ЛЛМки заменят ойтишников и лопнут айти-пузырь я слышу в сотни раз чаще, чем эти самые ЛЛМки реально помогают мне в работе.
нет, несомненно, производительность оно бустит, он может делать за тебя monkey job, может помочь тебе с чем-то новым разобраться, но чем ты опытнее, тем меньше тебе от него профита.
и доверять ЛЛМке в том, в чём ты вообще ни бум-бум ты не можешь совсем.
а ещё очень многие PO не хотят, чтобы ты шарил с ЛЛМкой их данные, их ИП и т.д. и ограничивают использование ЛЛМок в работе, а то и полностью запрещают.
да и примеров успешной интеграции ЛЛМ в процесс разработки я пока ещё не встречал, их используют как частичную замену гуглу и stack overflow
и дальнейшее их совершенствование под большим вопросом, при обучении на собственных данных они могут деградировать.

так что пока у нас есть только громкие заявления о заменах и бла бла бла, которые не подтверждаются практикой.
можно скидывать на них рутину. Если в падлу читать доки или бест практис можно просто спросить и с вероятностью процентов 70-80 скинет ответ или резюмирует, но нужно правильно составлять сам запрос и уточнять вероятные косяки. Еще можно спокойно делать простые операции с кодом, типа не гуглить решение на стеке, а получить готовое сгенеренное, или там если нужно перегнать из одного диалекта в другой тоже может, недавно так перекидывал часть запросов с тскл на постгрес. Что-то сложное бесполезно или около того, хотя прикола ради генерил схемы для бд по моделям, но как-то сомнительно, ибо почти все пользуют орм. В целом это экономит время на просмотр ютуба и чтения джоя.
PS phind.com
А сэкономленное время потратить на проверку ответа и переуточнение запроса

Да это очередной чел который прочитал одну статью от разрабов ИИ и бегает с ней по инетам. Всё что может заменить ИИ на обозримый момент это рутину. То есть сегмент самых низкоквалифицированных джунов. Сейчас он даже на это не способен. Пока что он хорош тем что работает лучше чем дефолтный поисковик. Ну и лично использую его для Rubber duck debugging.

Так и есть. Приведу типичный пример
Задача - сделать так, чтобы фильтр хххх работал первым в списке фильтров.
Решение GPTChat - очистить список фильтров и добавить туда требуемый )

Ну да, формально задача решена )

Ну ты же ему не задал другие условия :)
А текущих текстовых ИИ еще очень большие проблемы с пониманием челоконтекста. Это человек поймет что предложив данное решение его нахуй пошлют, а ИИ в этом плане себя не сдерживает.

Буквально вчера смотрел один док. фильм про жизь. Там говорилось что чем субьект умнее (выше интеллект) тем более простые решения он ищет. В частности там те же програмисты упоминались как пример. кек.
Как раз наоборот. Чувак ниже все хорошо расписал. К айтишечке ещё большая очередь выстроится. А вот айтишников станет меньше потому что джуны не будут нужны и хз как расти
Ага, 640 килобайт хватит всем.
Ахуенный пост про то как можно голосом общаться с ботом. В ВИДЕ ГИФКИ БЛЯТЬ
Загадку про грушу хоть научилась решать?
Так он же и раньше мог говорить. По крайней мере полгода назад. Или я просто попал на тестирование не зная что фичи нет в открытом доступе?
> может писать программный код в несколько раз лучше и быстрее предыдущей модели

Так это же пиздеж.

Дословная цитата с сайта ОпенИИ:

> It matches GPT-4 Turbo performance on text in English and code, with significant improvement on text in non-English languages, while also being much faster and 50% cheaper in the API.

То есть кодит он в лучшем случае так же хуево.
- главное, энтузиазм. (с)

ну конечно главное энтузиазм. продраться через несколько уровней технических и других собеседований и не послать все нахуй - это прямо уровень просветленного. наверное поэтому у индусов получается лучше
В общем, потестил я эту вашу 4о. Что могу сказать? Дебил. Стал очень похож на Gemini по стилю ответов. Они в развитии 100% свернули не туда. Причем, похоже, они накатили патчи и на 4 версию тоже и сделали ее тупее. Если полгода назад четверка стабильно проходила 3 из 4 моих тестов, то сейчас она проходит только один, а 4о не проходит вообще ни одного, это печально.
Я немного не понял, нынешная версия gpt 4 станет бесплатной или так и останется просто обновившись?
Все это было бы безумно круто если бы его не душили ограничениями. Что тройка, что бинг не хотят мне объяснять про что идет речь в песне "Кожаная Пуля", хотя более чем уверен, что они все понимают



- "Ты не шахтёр, но лазишь в шахты" - описывает человека, который не занимается конкретным делом, но всё равно втянут в опасные ситуации.

- "Не трубочист, но чистишь дымоход" - символизирует действия, которые не соответствуют обычным занятиям, но при этом являются опасными или неразумными.

- "Твоя кожаная пуля в кожаном стволе" - метафора для описания человека, который становится инструментом разрушения или саморазрушения.

Эти метафоры помогают создать образ загнанного человека, который попал в сложную и опасную ситуацию, иллюстрируя его внутренние конфликты и борьбу.
Борьба есть путь
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты