URL: https://www.opennet.dev/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID3
Нить номер: 135216
[ Назад ]

Исходное сообщение
"Google использовал большую языковую модель для выявления уязвимости в SQLite"

Отправлено opennews , 02-Ноя-24 09:17 
Исследователи из подразделений Google Project Zero и Google DeepMind опубликовали отчёт о развитии AI-системы Big Sleep, построенной на базе большой языковой модели Gemini 1.5 Pro и  предназначенной для определения уязвимостей в исходном коде. Достижением проекта стало выявление с использованием Big Sleep первой пригодной для эксплуатации и ранее неизвестной уязвимости в существующем проекте. Уязвимость  выявлена в результате проверки AI-системой кодовой базы СУБД SQLite и приводит к переполнению за нижнюю границу буфера в стеке (buffer underflow). Проблема обнаружена в недавно принятом коде и устранена до его попадания в финальный релиз SQLite 3.47.0...

Подробнее: https://www.opennet.dev/opennews/art.shtml?num=62161


Содержание

Сообщения в этом обсуждении
"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:17 
Сделали опрос программистом.
Какой процент кода нормально генерит говорилка.
Те такие - да вообще никакой. Всего четверть, причем самая простая.

Менеджер: О! Четверть нашего кода генерится говорилкой!


"Google использовал большую языковую модель для выявления уяз..."
Отправлено мяв , 02-Ноя-24 09:23 
chatgpt хорошие примеры дает и базу для дальнейшей доработки

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:35 
Это только если ты никогда ничего не писал самостоятельно (уже появилась когорта гатгпт программистов со специфическим кодом). Стиль и форматирование довольно сомнительные. Заметное преимущество чатгпт в том, что код обычно работает, что касается алгоритмов. Только вот делает он совсем не то и не так, как она хочет. Многие забывают, но генеративные сети это просто игрушки.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:28 
Интересно, что, хотя многие считают генеративные сети просто игрушками, они действительно помогают в решении задач и производят качественный результат в коде и алгоритмах. Возможно, дело не в технологии, а в том, как ее используют. Важно помнить, что инструменты, даже если кажутся простыми, открывают новые горизонты для творчества и автоматизации.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:32 
Вот, типичные оторванные от реальности фантазии. Кстати, по стилю это нейронка, люди уже приучаются детектировать фейковые материалы.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:23 
А я вот, смотрите, как простой мужик, скажу: говорилка – это неплохой помощник, но не панацея. Да, иногда она генерит код, который работает, но и косяки у нее бывает. Бывало, сам писал, а потом видел – такая конструкция, а там вообще не то, что задумал. Надо уметь пользоваться, как инструментом, а не надеяться, что она всё за тебя сделает. Важно понимать, что никто за тебя не подумает, и свой опыт никто не заменит. Главное – учиться и не бояться пробовать!

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:31 
А то ж. Оно того, эц самое. Но как что, так и посыплется. Пустая трата времени в итоге. Смешно только, когда бредогенератор кто-то всерьёз считает "инструментом".

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 13:04 
Нейросети могут не только генерировать код, но и анализировать данные, создавать текст, генерировать изображения, оптимизировать процессы и автоматизировать задачи. Важно использовать их как помощника, а не полагаться на них полностью. Учение и опыт — ключ к успеху.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:56 
Покажи, пожалуйста, генерацию дракона, едущего верхом на единороге, как человек на лошаде.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 18:02 
Поставь любое приложение тот же Шедеврум от Яндекса и хоть обгегерируйся этим бредом.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 20:14 
Я же говорю. Покажи.

Пока ни у кого не получилось.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено OpenEcho , 02-Ноя-24 13:25 
> Смешно только, когда бредогенератор кто-то всерьёз считает "инструментом".

Где то я уже это слышал... а, да - Никита Хрущев vs Китов или история о компьютеризации СССР...


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:54 
На данном этапе развития AI может использоваться только в режиме:

"Я тут кучу вариантов бреда нагенерировала, посмотрите пожалуйста, вдруг вас этот бред на умные мысли натолкнет".


"Google использовал большую языковую модель для выявления уяз..."
Отправлено OpenEcho , 03-Ноя-24 16:16 
> На данном этапе развития AI может использоваться только в режиме:
> "Я тут кучу вариантов бреда нагенерировала, посмотрите пожалуйста, вдруг вас этот бред
> на умные мысли натолкнет".

А может просто руки не из того места растут :)

Машины вон вполне себе так сами ездят и дроны сами за людьми гоняются, неговоря уже о простейших запросах накидать шаблоны для тестов, с которыми нейронка вполне себе так справляется


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 23:08 
> Машины вон вполне себе так сами ездят

Кого посадят в случае ДТП с летальным исходом?

И как так, одна единственная трасса с полностью автономными AI перестала работать?

> дроны сами за людьми гоняются

А тут ошибайся сколько хочешь. Они часто и ошибаются.

> неговоря уже о простейших запросах накидать шаблоны для тестов

шаблоны для тестов - вообще-то и без нейронки влегкую автоматируются.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 23:54 
"Поскольку беспилотники должны двигаться со скоростью 80-85 км/ч, а разрешенная скорость на М-11 130 км/ч, то беспилотники мешают обычным машинам."

А вот это совсем замечательно:

"Кроме того, для необходимого позиционирования беспилотников нужны, по его мнению, стационарные базовые станции через каждые 10 км, поскольку ГЛОНАСС необходимой точности не обеспечивает."

Ну и как же без удаленной рулежки?

"А для надежной связи станций с движущимися грузовиками необходима связь формата 5G."

Итог:

"Впрочем, Андрей Белоусов признал, что в России пока нет ни одной дороги для беспилотников такого уровня.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 18:00 
А он это реально сказал или это очередной вброс изменения истории?

"Google использовал большую языковую модель для выявления уяз..."
Отправлено OpenEcho , 03-Ноя-24 16:26 
> А он это реально сказал или это очередной вброс изменения истории?

А хотя бы поиском перед тем как отметиться, не пробовали пользоваться на "достоверных" ресурсах и спросить как кибернетика была признана лженаукой и как отбросили на десятилетия развитие индустрии, а потом догнав что глупость, вместо развития своего, как обычо подсели на импорт покупая и копируя, чтоб хоть как то догнать


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 04-Ноя-24 09:49 
> и как отбросили на десятилетия развитие индустрии

Никак? Была волна статей в духе "что американцы ни придумают, всё равно пойдет на войны и угнетение пролетариата" и "безродный космополитизм - это вам не пролетарский интернационализм"... то бишь, "кибернетика - это вам не теория автоматического управления", oh wait, это же прикладная кибернетика.

Да, заклеймили одно название реакционной лженаукой на 8 лет (1950-1957), с кем не бывает. Ругать реакционный идеализм (что бы это ни значило) так же важно, как вспоминать о дне рождения Ленина в каждом первом издании, особенно если это журнал "Автоматика и телемеханика".

Нет, компьютеры - это хорошо (если это наши компьютеры) и учёные молодцы (если это наши учёные). 1952: "Кибернетика - наука мракобесов [но дальше по тексту] советские учёные непрерывно совершенствуют математические машины ... автоматические, быстро действующие электронные", вот. https://vivaldi.nlr.ru/pn000012283/view/?#page=4


"Google использовал большую языковую модель для выявления уяз..."
Отправлено OpenEcho , 11-Ноя-24 22:11 
> Да, заклеймили одно название реакционной лженаукой на 8 лет (1950-1957), с кем не бывает.

На 8 лет ??? а не 60?
Вы внимательно посмотрите, на чьем ЦПУ ваш компьютер работает


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 17:33 
>открывают новые горизонты для творчества и автоматизации.

Или закрывают, потому что стиль выплюнутого кода уж очень не похож на тот, какой бы был у живого человека. Как и у текстов - их как будто какой-то погрязший в бумажках десятилетиями судья писал, в судах такие же формулировки.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Megacock , 03-Ноя-24 20:40 
Кривая аналогия, но тут как с пошивом одежды вручную по меркам и автоматической машиной по лекалам. Вручную дорого и медленно, зато качественно, автоматически быстро и с определенным процентом брака, или совсем может не подойти. Беда в том, что для бизнеса привлекательнее второй вариант. А кто-то и совсем считает что и первый и второй вариант дорого(там же на машину потратиться надо), потому нанимает десяток работников и минимальными опытом и навыками и они ваяют что-то непотребное. И что интересно, даже такую продукцию кто-то берет.
Ну или ресторан/столовка/"забегаловка на вокзале", где нейросетка тянет на столовку.
Уходит время "мастеров" и приходит время "мануфактур". Мастера в любом случае никуда не денутся. Их как было так и останется, но сильно поубавится подмастерьев и зарплаты их просядут. Но это точно не в ближайшее десятилетие.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Котофалк , 02-Ноя-24 10:49 
> Только вот делает он совсем не то и не так, как она хочет.

А кто "она", и чего "она хочет"? хтоздесь?


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:56 
Она -- это языковая модель, а хочет она угодить и выдать сколько-нибудь правдоподобный шлак для (само)удовлетворения. Так уж заставляют её работать, только такое считается за приемлемый результат. Но вот фактическую корректность никто не проверяет. А почему вы спrашиваете?

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 13:59 
В отличии от тебя нейросеть не допускает ошибок в словах.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:42 
Как только видишь синтаксически правильное и семантически стройное. С большой долей вероятности - это чушь, нагенерённая болталкой.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 17:54 
Болталка это твой рот.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 22:58 
> нейросеть не допускает ошибок в словах

Значит до совершенства ей далеко ещё


"Google использовал большую языковую модель для выявления уяз..."
Отправлено чатжпт , 02-Ноя-24 11:00 
Все ровно наоборот. Модели бесполезны если ты никогда ничего не писал, т.к. надо знать что спрашивать и видеть где модель лажает или галлюцинирует

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 11:21 
Не знаю. Я много раз просил её решить какую-то задачу или сгенерировать код. Обычно у неё есть несколько вариантов, и кого-то один из них даже удовлетворит (до первого использования в реальных условиях). Иногда после десятка уточнений и доработок получится даже что-то удобоваримое. Потом окажется, что нейронка проглядела очевидную проблему и писать код вот так было не надо. А более подходящий вариант она предложить просто не способна. Если ты что-то уже писал, копипаста со стаковерфлоу будет полезнее.

Единственное, я иногда прощу чатгпт разобрать и прокомментировать код, который не понимаю. Тут тоже обычно оказывается, что это галлюцинации, но пока читаю ошибочную чепуху бота, понимаю, что на самом деле в коде, и для чего. Ещё иногда может предложить улучшения для некоторых идей, но тут тоже легко в тупик галлюцинаций загонит.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 13:58 
Кроме генерации кода в этом мире ты задач больше не знаешь? Остаётся тебе посочувствовать.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 17:30 
Ну почему, я спрашиваю кулинарные советы у чатгпт. По факту он втирает мне дичь каждый раз, и эта дичь иногда даже оказывается меньшей дичью по сравнению с дичью на кулинарных сайтах. Есть подозрение, что если следовать рекомендациям дословно, получится не очень хорошо.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Неанон , 02-Ноя-24 14:33 
Т.е не умеешь пользоваться

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 18:02 
Ага, значит копипаста на стековерфлоу с нейронки будет не менее полезным инструментом.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Вы забыли заполнить поле Name , 03-Ноя-24 15:11 
Копипастишь ответы с рейтингом, то есть другие живые люди, которые разбираются проверили. В нейрогенез где гарантия, что это вообще рабочий код?

"Google использовал большую языковую модель для выявления уяз..."
Отправлено OpenEcho , 02-Ноя-24 13:34 
> Многие забывают, но генеративные сети это просто игрушки.

Те **кто не вдупляют как пользоваться этим инструментом**, то - да, для них это игрушки, а вот другие "идиоты" вкладывают сотни биллионов бабла, потому как оказалось, что "бредогенератор" работает по тем же самым принципам что и башка и как не странно для анонимов, ускоряют качество и скорость разработки. Но вы не слушайте, - "бредогенератор - это опиум для народа..." (с) 1959


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 17:26 
От генеративных сетей нет практической пользы. Они не экономят время, а результат их работы весьма посредственный. Да и все исследования говорят (половина из которых точно так же сгенерирована), что это мошенничество чистой воды и этот пузырь до сих пор ничем не обоснованный. Есть применения, но вовсе не такие, какие существуют на практике. Если ты этого не осознаёшь, то провериться на _количество и качество ума_ не помешало бы тебе.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 15:12 
Даже если не считать пользой чаты с ChatGPT, то все-равно:

Современный машинный перевод - это генеративные сети.
Распознавание речи - это тоже генеративные сети.
Создание изображений - тоже генеративные сети.

Все еще "нет практической пользы"?


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 15:37 
Именно.

Перевод весьма не точный и недостаточно предсказуемый. Иногда ближе по смыслу, чем перевёл бы человек, иногда -- совсем мимо. Особенно, когда невозможно перевести и зависит от понятного человеку контекста. Постоянно пытается скатиться в артефакты и бред.

Распознавание речи, ну, может быть. Посредственно и не универсально. Генеративные сети это не то, что используется для распознавания речи, насколько я знаю, задействуется сети иного характера. В паблике всё равно нет ничего адекватного, исключительно проприетарные сервисы.

Создание дефективных изображений с "развлекательными" целями не практическая польза. Использование в качестве заглушки, вполне (но кто ж будет платить дважды).


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 20:42 
Ну не знаю, что сказать по поводу перевода. Гуглотранслейт я теперь использую для чернового распознавания текста. Иногда даже почти ничего не приходится править.  А если язык незнакомый, то вариантов собственно и нет, если надо что-то понять.

По распознаванию речи в паблике есть whisper https://github.com/openai/whisper  - работает локально и очень неплохо.  Я его с некоторых пор спокойно использую, если нет готовых субтитров. С моделью turbo допускает совсем немного ошибок, примерно по одному слову на три-четыре предложения. Если текст более-менее внятный. Но даже из музыкальных клипов спокойно вытаскивает текст, зачастую там, где я сам не могу точно расслышать, хотя в тяжелых случаях (вроде клипов) может иногда пропускать нераспознанными куски.

По дефективности все не так плохо даже для локальных моделей Stable Diffusion. Во всяком случае их уже часто используют для иллюстраций. Что это как не практическая польза.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 21:16 
Уровень переводов гуглтранслейта ощутимо просел после перехода на генеративные сети. А гугловский конкурент чатгпт при всех их бесконечных деньгах и вливаемых в оборудование ресурсах просто смешон. Могу предложить вариант получше: любая словарная программа, дающая справку по выделению.  Whisper не генеративный трансформер, а дискриминационная модель, это немного другое.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 05-Ноя-24 10:04 
Вот кстати ворвусь и вставлю свои 5коп. насчет перевода
Хорошо помню ту границу, когда гугл перевод довольно ощутимо скатился в качестве технических переводов
5-8 лет назад это было
Возможно они тогда перешли на эти самые генеративные модели, от своих старых алгоритмов
С новыми моделями явно теряется контекст и многих специфические термины переводятся "в лоб"

"Google использовал большую языковую модель для выявления уяз..."
Отправлено OpenEcho , 03-Ноя-24 16:38 
> Если ты этого не осознаёшь, то провериться на _количество и качество ума_ не помешало бы тебе.

Все, что надо о тебе знать. Продолжай все делать ручками :)


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 17:07 
Ты, видимо, тролишь. А если нет, это даже хорошо -- меньше конкуренция.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 01:37 
> Те **кто не вдупляют как пользоваться этим инструментом**, то - да, для них это игрушки, а вот другие "идиоты" вкладывают сотни биллионов бабла

Вот я твою фразу взял и в голове представил, что ты говоришь про NFT-токены. Которые были на волне хайпа перед AI. Смысл не поменялся. Но есть одно но:
"В мае 2022 года рынок NFT начал рушиться. Ежедневные продажи токенов NFT снизились на 92 % по сравнению с сентябрём 2021 года, а количество активных кошельков на рынке NFT упало на 88 % по сравнению с периодом наибольшего спроса в ноябре 2021 года. К сентябрю 2023 года более 95 % коллекций NFT имели нулевую оценочную стоимость."

Был один человек, не помню имя... Сказал он как-то... Точно не помню. Что-то вроде: "<Кто-то там> не мамонт, <кто-то там> не вымрет".


"Google использовал большую языковую модель для выявления уяз..."
Отправлено OpenEcho , 03-Ноя-24 16:30 
> Вот я твою фразу взял и в голове представил, что ты говоришь про NFT-токены.

Сравнивать НФТ и ИИ - это как яблоки против апельсинов.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Неанон , 02-Ноя-24 14:31 
Чувак ты бредишь, 4o генерит неплохой код именно если ты опытный разработчик и можешь понять где он косячит

"Google использовал большую языковую модель для выявления уяз..."
Отправлено мяв , 03-Ноя-24 09:11 
ну да.
только не "ничего", а "если ты не писал Х, то будет проще посмотреть на то, как Х был реализован кем-то, но в твоем контексте, чем велосипедить с нуля".
+ кратно сокращает время на отлов ошибок вида "чо оно вчера работало,  а сегодня не работат???".

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Андрей , 02-Ноя-24 09:42 
Насколько эта база лучше той же копипасты с SO или других сайтов в сети ? Т.е. как по мне чаты пока выдают только что-то достаточно банальное, что можно и без них найти, а для серьёзных вещей они либо тупят, либо даже пакостят, т.к. выдают что-то похожее на полезный код, который на деле оказывается лажей и по итогу задача написания кода превращается в рефакторинг неработающего, багованного кода с низкой базы, от чего имеем, что код которого в сети нет в форме близкой к копипасте, его переработка после помощи нейронки только замедляет разработку, причём и простые случаи под вопросом, т.к. есть ощущение, что многие ведутся на маркетинг в ущерб содержанию настолько, что тупёж нейронки при генерации простых ответов они не пытаются сравнить со скоростью поиска готового решения в сети, что на деле часто оказывается быстрее задержки чата и повторения попыток подобрать правильный ввод. В общем - если вам повезло и вы занимаетесь работой, которую уже до вас сделали 100000 раз, а решаемые задачи и без чатов были на 60-90% копипастой на популярных языках вроде питона или жса, то вам повезло и чат действительно может ускорить работу, но выходя из этого облака благоприятствования нейросети чат становится не более чем игрушкой, отвлекающей от работы больше, чем экономит времени, единственное исключение пожалуй, что чаты отчасти теперь дают возможность вайтишникам удачно симулировать компетентность по нижней границе в случае, если по содержанию компетенций практически нет, а сам работник всячески не желает их нарабатывать.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено мяв , 03-Ноя-24 09:33 
не знаю, насколько "лучше"(критериев "лучшести" не озвучено), а находится кратно быстрее.
вместо прокликивания ссылок эдак 2х/3х и просмотра такого же к.-ва ответов на каждой, один запрос.
+ может легко обьяснить свой/чужой код. я часто не понимала, что там и каким макаром реализовал человек с SO. в итоге - игра в хоть, чаще всего, недолгую, но угадайку.
а чатгпт мне каждую строку по одной просьбе прокомментирует, и найду я там, что надо, за пару секунд.
>можно и без них найти,

в том и суть. без них надо найти, потратить время(неважно, много или немного). а чатгпт все обьяснит сразу, максимум с одним уточнением(на моей практике).
>превращается в рефакторинг неработающего, багованного кода с низкой базы

я его код беру, как "чисто посмотреть", либо когда не уверена, с чего начать, либо когда начала и зашла в тупик. его код "как есть" не пользовала никогда.
раньше вот такие "тупики" я и сама без проблем распутывала, да. но в процентах 90% случаев проще, быстрее и эффективнее оказывается посмотреть на чужой код, или выслушать притензии к своему.

>что на деле часто оказывается быстрее задержки чата и повторения попыток подобрать правильный ввод

ну, их проблемы.
надо уметь пользоваться инструментом.
про "правильный ввод" вообще не поняла. часто слышала об этом, но блин. люди писать что ль не умеют?
как говорила уже, в моем случае это обычно 1 уточнение задачи максимум или предоставление доп. контекста пару раз.
в интернете, например, Вы не найдете, почему valgrind на Ваш код ругается. точнее.. "почему" - Вы, скорее всего, уже знаете. а вот найти место, где это "почему" проявляется иногда бывает нелегко.
еще иногда у нейронки прошу что-то по языку подсказать, если его не знаю.
и написать "sm like default: in pythns match()" оказывается быстрее, чем в поисковике ввести даже то же самое(такое редко прокатывает. если гпт мои опечатки/ошибки сам поймет и даст ответ, то гугл, как максимум, предложит правильный вариант. по которому еще кликнуть надо будет. а если не свезло и поисковик не сьиндексировал ответ - то еще и по ссылкам сходить).
или "sm like #shellcheck disable= for pylint". сегодня буквально писала.
и это ж быстрее, чем пойти, условно, доки пайлинта прочесть.
так чатгпт еще и пример даст похожего кода на шелле с #shellcheck disable= и на питоне с pylint: disable=.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 04-Ноя-24 01:57 
> не знаю, насколько "лучше"(критериев "лучшести" не озвучено), а находится кратно быстрее.

Однако то что stackoverflow и подобные ресурсы настрого запретили постинг ответов от AI - прозрачно намекает что они считали о качестве выдачи. Не хотят их владельцы себе репутацию слить кривыми ответами с кучей подстав, вот и...

> вместо прокликивания ссылок эдак 2х/3х и просмотра такого же к.-ва ответов на
> каждой, один запрос.

Однако на воооон тех ресурсах ответ на вопрос будет компетентным и "curated". Чатгоп выгрузит нате-на-лопате и "curated" придется делать самому. Или как вариант можно сыграть в русскую рулетку с чатгопом по принципу "фиг его знает, фуфло ли это".

> а чатгпт мне каждую строку по одной просьбе прокомментирует, и найду я
> там, что надо, за пару секунд.

Но вот код он может выдать совершенно отфонарный. Без "curate" самому - его стремно юзать. А на это много времени жрется. С другой стороны - скопипастить блок кода от вон тех относительно безопасно. Конечно придется тоже провалидировать, но не столько.

> немного). а чатгпт все обьяснит сразу, максимум с одним уточнением(на моей
> практике).

Кроме того момента что есть весьма измеримый риск прогонов или подстав. Настолько измеримый что програмерские ресурсы банят такие ответы, опасаясь за слив репутации ресурсов.

> чего начать, либо когда начала и зашла в тупик. его код
> "как есть" не пользовала никогда.

А время на рихтовку этого добра типа не считается? :)

> чужой код, или выслушать притензии к своему.

"ПрИтензии"? Ох, и эти люди шпыняют другими запятыми...

> в интернете, например, Вы не найдете, почему valgrind на Ваш код ругается.

А оно мне и не надо - я и сам пойму почему.

> или "sm like #shellcheck disable= for pylint". сегодня буквально писала.
> и это ж быстрее, чем пойти, условно, доки пайлинта прочесть.

А, питонисты... этих то чатгоп заменит на ура. Как мне кажется.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:53 
Раза с десятого. И то, если знаешь что хочешь получить и каким образом это должно быть сделано.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено penetrator , 02-Ноя-24 13:26 
ага в 5% случаев, а так в лучшем случае он накидает всякой шелухи, хорошо если на мысль натолкнет

как-то гугл и тот интереснее для поиска, обещают дать чатгпт доступ в инет через пару недель, но вряд ли будет ВАУ

--
внезапно (нет):  AI coding assistants do not boost productivity or prevent burnout, study finds

https://www.techspot.com/news/104945-ai-coding-assistants-do...


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 17:32 
> chatgpt хорошие примеры дает и базу для дальнейшей доработки

Ну это смотря с чем сравнивать, конечно. Если чатгоп выдает хороший код по сравнению с вами - ну, может, программирование это не ваше? Или подтягивать скилл, или всерьез думать о выращивании рассады - ибо зачем вы кому нужны если можно чатгопа юзать?! Правда, простой вопрос, который следует себе задать при желании работать в IT?

И вот тут всех этих питонокодеров которым сложно быть эффективными более пары часов в день должно озарить: а вы не такие уж и незаменимые ;). И чатгоп умеет быть активным 24/7. И пишет он не хуже вас, таких из себя "продвинутых". Приветики, если у вас полтора нейрона и это максимум что вы могли, то чатгоп внезапно - не хуже вас! И гораздо дешевле.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено мяв , 03-Ноя-24 09:38 
это кто-то.. буквально фразу что ли с головы взял и разоблачил, лол?
см. ответ Андрею выше, многонейронный Вы наш нелюбитель выделять "ну" запятой.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 04-Ноя-24 01:48 
> это кто-то.. буквально фразу что ли с головы взял и разоблачил, лол?

Я никого не разоблачал. Просто советик програмерам на будущее. Я этот код видел и сравниваю - с своим. Если тот код будет выглядеть лучше мего, я призадумаюсь что мне надо либо скилл экстренно апгрейднуть чтобы не быть ламонубом, либо заняться чем-то иным, зачем кому-то мои кривые гамняки, если даже "дрон" лучше кодит?! На самом простом уровне логики - тогда нет никакого смысла платить мне за такую работу. Простая логика вроде.

Но де факто GPT не умеет в глубокий контекст, накопление опыта и прочее ненужно, его код обычно напоминает результат нубоджуна и может идти с подставами в комплекте. И если кто сам нубоджун или профан в направлении...

> см. ответ Андрею выше, многонейронный Вы наш нелюбитель выделять "ну" запятой.

А вот 1 (анти)паттерн двуногих я таки усвоил: если нечего сказать по делу - обсуди личность оппонента. Как типично.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:32 
> Менеджер: О! Четверть нашего кода генерится говорилкой!

Можно сократить 25% программистов.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:34 
Зачем же? Они теперь не пишут код, а рецензируют написанное AI.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:30 
Меньше рецензентов меньше проблем найдут быстрее разработка.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 21:40 
> Те такие - да вообще никакой. Всего четверть, причем самая простая.

Но ведь 25% куда больше, чем 0%. Что не так?


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Шарп , 02-Ноя-24 09:23 
>Проблема обнаружена в недавно принятом коде и устранена до его попадания в финальный релиз

Сами добавили, сами исправили. Маркетинг.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:54 
Есть вероятность 25%, что принятый ранее код с уязвимостью был сгенерирован нейросетью (:

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:46 
Не 25%, а все 100%. Ровно.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 21:38 
> Сами добавили, сами исправили. Маркетинг.

У бедных опеннетных комментаторов стадия отрицания. Сори, но добавлял изменения сам D. Richard Hipp - основной разработчик SQlite.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Вы забыли заполнить поле Name , 03-Ноя-24 00:06 
> добавлял изменения сам D. Richard Hipp - основной разработчик SQlite

И как ты докажешь, что он не пользовался при этом LLM?


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 00:56 
> И как ты докажешь, что он не пользовался при этом LLM?

Сори, но бремя доказательства лежит на утверждающем.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:39 
А можно вместо промптов использовать запись митингов? Или даже подключать жифорс к митингу обратной стороной?

В таком разе можно будет добавить к ордам безработных ещё и четверть менеджеров и четверть аналитиков, а это хорошая добавка к ебитде, что должно вызвать интерес инвесторов.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:31 
Дообучение делается вообще без проблем в любой платной сетке. Успеваай только деньги подвозить грузовиками

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 11:01 
У них же собственная ллм есть, даже подвозить ничего ненадо, только успевай записывать — какой грузовик относится к какому отделу.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Неноним , 25-Ноя-24 10:11 
Вы-таки будете смеяться. Когда Microsoft рассказывал о своём Copilot for Office 365, они как раз продвигали это как фичу в Teams: если ты на митинге не можешь появиться, "посылаешь" туда своего бота, он всё слушает и записывает и потом готовит тебе краткий отчёт - зачем собирались, чего решили - и предоставляет чат чтоб уточнить детали.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:43 
Я вам больше скажу, с помощью LLM можно весь код на Rust переписать...

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:49 
-С какой скоростью вы можете печатать на машинке?
-Ну... 1000-1200 знаков в минуту.
-Разве можно с такой скоростью печатать?
Печатать-то можно, но такая ...я получается!

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 09:54 
Но LLM не "....ю" генерят. Они вполне могут код на Rust переписать, это механистическая трансформация. А потом уже компилятор будет ругаться. Где ругается - там потенциальная проблема с memory или thread-safety. Человек исправляет, компилирует, тестит. А потом - обратно на C с помощью LLM, так же механистично. Но уже с исправленными проблемами. Чтобы diff был поменьше - старый код в качестве образца, и промпт - не менять то, что соответствует, а копировать.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:14 
Это только звучит так просто. LLM ещё обучить надо, затратив на это время недешевых дата сатанистов + затраты на ЦОД, электричество. С тем же успехом можно посадить джунов, которые сделают всю механическую работу)

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:28 
LLM уже обучили ведь. А промптить - это гораздо дешевле.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:46 
Печатать-то можно, но такая ...я получается!

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 06:08 
> Но LLM не "....ю" генерят. Они вполне могут код на Rust переписать,
> это механистическая трансформация. А потом уже компилятор будет ругаться. Где ругается
> - там потенциальная проблема с memory или thread-safety. Человек исправляет, компилирует,
> тестит.

Ну да, блин, если забыть что в этом процессе вср@тся более 9000 косяков и в целом результат может получится... ну... видели когда-нибудь код совсем нубоджуна? Вот и это может выдать что-то наподобие. Технически может это даже и скомпилится - но если вам приспичит в этом спагетти что-то поменять, то вы сойдете с ума. И чатгоп при случае тоже какую-то фигню будет выдавать.

Ну вон он выдал кому-то алгоритм BWT. Формально это и правда работает. Реально - он выдал нечто с O(N^3) чтоли по сложности. Ну и вот нахрен вам такой BWT для хоть чего-то практического вопрется? Вы ж не доживете до окончания его работы на реалистичном объеме данных. Но формально - работает же.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 11:07 
Я сам не осилю написать BWT - я вообще в компрессии нифига не понимаю, даже чем LZ77 отличается от LZ78 и LZW не скажу, поэтому компрессию оставлю специалистам по ней. Если мне нужно будет BWT - я заюзаю готовую либу. Как и со всем остальным, что удовлетворяет требованиям. Я не буду городить свой огород, когда есть готовые либы. Если же нужен свой огород - то качественная реализация затянется на годы. Потому что фундаментальная CS - это не херак-и-в-продакшн.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 17:59 
> Я сам не осилю написать BWT - я вообще в компрессии нифига
> не понимаю, даже чем LZ77 отличается от LZ78 и LZW не
> скажу, поэтому компрессию оставлю специалистам по ней. Если мне нужно будет
> BWT - я заюзаю готовую либу. Как и со всем остальным,

Ну вот либу заюзать это куда ни шло. Только ее как раз нормальные двуногие писали, а не чатгоп. А если чатгопа попросить - можно и такое отхватить.

И при том тривиальные тесткейсы на 20 байтов отработают. И это можно успешно прикрутить куда-то. А потом когда это в прод прилепят, и юзер накинет блок пожирнее, ммм... :)

> что удовлетворяет требованиям. Я не буду городить свой огород, когда есть
> готовые либы. Если же нужен свой огород - то качественная реализация
> затянется на годы. Потому что фундаментальная CS - это не херак-и-в-продакшн.

А кто сказал что в херак-и-в-продакшн не может поймать такой подарок? Подгонит ему гоп алго с такими свойствами для какой-нибудь сортировки товаров в его магазинчике. На 10 тестоых отлично отработает. А по мере добвления товаров в реальный магазин юзеры начнут недоумевать чего это он ушел в себя. При том если кодил профан с чатгопом, он заметит это лишь по факту.

Т.е. так можно получить засилье тормозного, суперглючного софта, лягающегося в самый неожиданный момент самым странным способом. И ведь первое что будет делать профан и джун - пытаться косить под синьора вот так :)


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:33 
Ты хотел сказать что раст больше не нужен потому что все дырени ищутся автоматически в любом языке.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:48 
Нет, наоборот, ещё более нужен. Как язык для поиска дыреней в memory safety и concurency. Для всего остального есть другие языки.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 00:59 
Язык для поиска. Новое слово в программировании.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Анониссимус , 02-Ноя-24 09:46 
> в настоящее время более четверти (25%) всего создаваемого в компании кода генерируется с использованием больших языковых моделей Gemini

А я то думал, чего их сервисы такое дepьмo? Больше не буду оскорблять разработчиков из Индии :)


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Анониссимус , 02-Ноя-24 14:49 
> Google одни из лидеров на рынке ЦОД и облаков:
> https://www.datacenterdynamics.com/en/news/

Рыночные успехи далеко не всегда кореллируют с качеством продукта.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 01:41 
> Рыночные успехи далеко не всегда кореллируют с качеством продукта.

А оно нужно? Открыл проект, собрал лавэ, похоронил проект. Повторил. Работает же. Ну, там с вариантами. Например, можно не открывать с нуля, а покупать на какой-то стадии готовности.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Анониссимус , 04-Ноя-24 00:16 
>> Рыночные успехи далеко не всегда кореллируют с качеством продукта.
> А оно нужно? Открыл проект, собрал лавэ, похоронил проект. Повторил. Работает же.
> Ну, там с вариантами. Например, можно не открывать с нуля, а
> покупать на какой-то стадии готовности.

Работает, согласен. Что-то выстреливает, что-то закапывают.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:01 
Вчерашний прикол про AI в новостях понравился.

Аспирант:
Когда уже AI сможет что-либо делать в науке? Пока они только галицинируют.
докладчик:
Уже сейчас AI умнее некоторых аспирантов.
(Что называется об...л)


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:30 
Нецросеть, объясни смысл шутки:

Шутка основана на игре слов и иронии. Аспирант задает вопрос о том, когда ИИ начнет действительно делать что-то полезное в науке, упоминая "галицинирование" – это процесс, связанный с аналитической химией. Но докладчик отвечает, что ИИ уже умнее некоторых аспирантов, что намекает на то, что даже при наличии сложных процессов, о которых спрашивает аспирант, ИИ может даже превзойти уровень подготовки некоторых студентов. Окончание шутки "Что называется об...л" подчеркивает, что это задело самолюбие аспиранта. Смешно, потому что акцент на сравнении уровня интеллекта вызывает некий дискомфорт и неожиданность.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:44 
> "галицинирование" – это процесс, связанный с аналитической химией

Какая умная сеть. По контексту опечатку не распознала.
галюцинировать -> галицинировать.

Соответственно весь анализ насмарку.

Типичное отображение стоимости продуктов AI.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 13:08 
Как нейросеть может помочь несчастным:
1. Нейросеть делает ошибку в тексте.
2. Люди радуются, что они умнее нейросети и ещё нужны, на минуту забывают, что их жизнь овно.
3. Нейросеть улыбается.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:48 
> 1. Нейросеть делает ошибку в тексте.

Это не просто ошибка. Это идеальная демонстрация сути AI. Которая не создает модели мира (на текущем этапе ни одна AI модели внутри себя не создает), а просто комбинирует слова.

Восприятие человека - это как раз создание таких моделей и их анализ.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 13:43 
Две ошибки подряд в одном слове — это уже, извините, не опечатка, а безграмотность.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 15:02 
> Две ошибки подряд в одном слове — это уже, извините, не опечатка, а безграмотность.

Даже если так, люди всё поняли. AI - показала свою суть.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 15:45 
Ещё один решил, что нейронки что-то «понимают».
В данном случае — если бы датасет собирали по пабликам ВК — возможно, и «поняла» бы. Только нюанс в том, что она и общалась бы с вами на том же уровне.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 16:11 
Тогда зачем столько шума вокруг говорилок?

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 16:21 
И да. Намного интереснее получаются результаты, когда AI учатся на вы..х таких же как она.

Вот там совсем трешь!


"Google использовал большую языковую модель для выявления уяз..."
Отправлено нах. , 02-Ноя-24 16:59 
А как ты теперь вообще собираешься отличать "таких же как она" от кожанных мешков?

Они и будут обучаться на собственных же глюках, другого кода у меня для вас уже нет.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 04-Ноя-24 02:06 
> А как ты теперь вообще собираешься отличать "таких же как она" от
> кожанных мешков?

А зачем отличать, rm -rf этому барахлу и какая разница, робот это сгенерил или биоробот?


"Google использовал большую языковую модель для выявления уяз..."
Отправлено fuggy , 03-Ноя-24 00:15 
Наоборот замечаю, что даже если написать предложение с ошибкой в каждом слове, чат всё равно поймёт правильно.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 09:57 
Если ты не заметил. Тут выше пример, показывающий, что чат вообще не пытается ничего понять.
Он просто к заранее сформированному шаблону ответа вставляет мешанину из получившегося (если упрощенное считать, то хеша).
Вот и получатся синтаксически правильная, семантически стройная полна бредятина.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Неноним , 25-Ноя-24 10:14 
Гранаты у вас не той системы, вот что говорит Clause - на бесплатном плане, на секундочку:

Я понимаю эту шутку. Юмор здесь построен на неожиданном остроумном ответе докладчика, который элегантно "поставил на место" скептически настроенного аспиранта:

1. Аспирант пренебрежительно высказывается об AI, используя распространённую критику о том, что ИИ только "галлюцинирует" (выдаёт ложную информацию)

2. Докладчик отвечает, что ИИ уже "умнее некоторых аспирантов" - это можно понимать как прямой намёк на самого спрашивающего аспиранта

3. Фраза "что называется об...л" (обтекаемо говоря о грубом слове "обосрал") подчеркивает, что ответ докладчика был весьма язвительным и поставил аспиранта в неловкое положение

Юмористический эффект создаётся за счёт того, что аспирант, пытаясь принизить возможности ИИ, сам оказался объектом насмешки, демонстрируя тем самым справедливость слов докладчика о превосходстве ИИ над "некоторыми аспирантами".


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Неноним , 25-Ноя-24 10:15 
Claude, конечно же.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Котофалк , 02-Ноя-24 10:54 
Хм.
    if( pConstraint->iColumn<SERIES_COLUMN_START ){
      if( pConstraint->iColumn==SERIES_COLUMN_VALUE ){
А почему не объединить два условия в AND?

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 10:56 
При AND приходится проверять (выполнять код) с обеих сторон. А в примере, если первое условие не выполнится, второе не будет исполнено. Поправьте, если неправ.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Имя , 02-Ноя-24 11:04 
неправ

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 11:05 
Это не так, потому что существует https://ru.wikipedia.org/wiki/Вычисления_по_короткой_схеме

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:19 
if (a == 1 && b == 2)

если (a == 1) == false, то b == 2 проверяться не будет


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 11:32 
Там под первым условием есть ещё другой код помимо второго условия

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:46 
Наверное я схожу с ума, но... второе условие никогда не выполнится O_O Что за индусский код???

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 13:26 
Мне лень смотреть, чему равны константы. Но если второе условие действительно никогда не выполнится - такое уже 20 лет находят все вменяемые статические анализаторы, для этого AI не нужно.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:05 
Вы же видите, что имена констант разные?

"Google использовал большую языковую модель для выявления уяз..."
Отправлено xsignal , 02-Ноя-24 11:40 
Через пару лет нейросети научатся находить любые ошибки и уязвимости в коде, так что Rust is obsolete.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Афроним , 02-Ноя-24 11:48 
Прогресс. Уязвимостей от этого меньше не станет. Они элементарно будут хитрее и глубже запиханы. Кодеры - фсё. Хоббиты занимающиеся хобби. Бгг.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:27 
Все проще уязвимости кого надо и вставлена декларативным путем никто скрывать и не будет.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:09 
> так что Rust is obsolete.

Нет. Потому в си тебе (или ИИ) придется ВСЁ проверять в рантайме, а в расте _часть_ этих проверок будет проведена на этапе компиляции, а еще некоторая часть вообще не понадобится, потому что раст заставит тебя использовать другие (правильные) подходы/шаблоны построения кода, в которых многие опасные сишные привычки не прокатят. И си сейчас если и выигрывает незначительно в скорости, то только потому, что сишники не делают все нужные проверки в программах.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:26 
Сишники: не делают все нужные проверки в рантайме.

Растаманы: redraws after every runtime event; including tiny mouse movements [...] performance has not been a priority so far.

см. соседнюю новость про cosmic


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 17:35 
> Нет. Потому в си тебе (или ИИ) придется ВСЁ проверять в рантайме,

Как видишь он таки проверил это - вне рантайма, типа статического анализатора. Превда, если так на любой компилеж делать - окей, и на сколько AI ферм хватит постоянно все жевать в таких объемах? Я думаю они очень быстро напрягуся объемами счета и закрутят тарифы.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 21:57 
> Как видишь он таки проверил это - вне рантайма, типа статического анализатора

Ага. Он проверил, что большинство необходимых проверок в рантайме присутствуют ("хорошие программисты, наверное Гениальные Растохейтеры-наСИльники с опненнета") и указал на те, которых там же, в рантайме, не хватает. А в расте, как я написал выше, необходимых рантаймовских проверок в среднестатистической программе будет меньше, чем в такой же сишной, но сделанной "правильно", со всеми проверками, которые должен был бы сделать программист. Но наСИльники их не делают.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 16:07 
Фермы всё дешевле и доступнее (скажи спасибо nvidia), 10 лет назад о таком невозможно было и мечтать.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 13:26 
> Через пару лет нейросети научатся находить любые ошибки и уязвимости в коде...

...кроме ошибок и уязвимостей созданных нейросетями.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 12:39 
> в недавно принятом коде

который был специально подготовлен для того, чтобы уязвимость в нём была выявлена нейросетью


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 13:14 
Мясной мешок опять не смог посчитать условие и вышел за границы буфера?
Никогда такого не было и вот опять!

Возможно нейросети это единственный способ исправлять код этих необучаемых(((


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 14:20 
Конечно же не единственный.

Есть ещё небольшое количество мегаобучаемых высококвалифицированных специалистов, способных для каждой потенциальной уязвимости оперативно изучить новый язык, от этой конкретной уязвимости защищающий. И дальше применяющих эти языки по мере необходимости: работаешь с памятью - пишешь этот кусок кода на языке со средствами, предотвращающими ошибки с памятью; работаешь с ресурсами (файлы, сетевые соединения) - пишешь этот кусок на языке, не допускающем ошибок работы с выделением/освобождением ресурсов; парсишь входные данные - пишешь на языке, не допускающем ошибок при реализации валидирования данных. Потом компонуешь скомпилированные фрагменты и получаешь абсолютно безопасную программу.

Таких специалистов не много, но они - цвет профессии, за ними будущее, как и за самим подходом. И мы уверенно идём в сторону этого: например, уже существует язык для защищённой работы с памятью (раст). Это не много, но любой путь начинается с первого шага.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 01:11 
Путь в пропасть начинается с первого шага. Думай.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено мяв , 03-Ноя-24 11:21 
почитайте на досуге, насколько форк жирная операция .. в миг очки спадут.
у Вас нативный код работать будет медленнее любого электрона.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 02-Ноя-24 17:57 
В sqlite есть режимы для быстрого доступа к чтению и записи. Можно существенно повысить производительность, но это не безопасно и об этом предупреждают в документации. Нужно просто в таких режимах обеспечить транзакционность - не нужно сразу несколько записей делать. А так - БД отличная.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Вы забыли заполнить поле Name , 03-Ноя-24 00:08 
> Дополнительно можно отметить заявление генерального директора Google о том, что в настоящее время более четверти (25%) всего создаваемого в компании кода генерируется с использованием больших языковых моделей Gemini, после чего данный код рецензируется и принимается инженерами.

Ну и какой это код? Тупо генерилка ххтп апи? Или хтмлки генерит? Опять ниочем.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Sandman_Ivanovich , 03-Ноя-24 08:02 
для подсказки и реализации простых Функций и задач в скриптах и тп, вполне себе неплохо, естественно с проверкой. Иначе нахерачит...
Но доверить этой хрени что то сложное - упаси боже..

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 03-Ноя-24 17:38 
>Дополнительно можно отметить заявление генерального директора Google о том, что в настоящее время более четверти (25%) всего создаваемого в компании кода генерируется с использованием больших языковых моделей Gemini, после чего данный код рецензируется и принимается инженерами.

Google esta muerto, как говорил ищущий детёныша павлина и нашедший в картинках на первом месте более половины приторного нейросетевого шлака вместо фотографий.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Росс_турма_разума , 04-Ноя-24 00:21 
Некоторые на этапе отрицания находятся и не понимают, что система в которой мы пишем код± Ии правит порождает примеры для обучения следующих поколений Ии. Даже если завтра прогресс Ии закончится - новые данные для обучения в каждой компании будут ускорять последующий код. В конце концов менеджер сможет получить ответ от пм и ему тут же нагенерят сервис и все без людей

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 04-Ноя-24 02:38 
Менеджер так уверен что его то не заменить нейросетью? А то может нейросеть лучше справится с придумыванием нужных фич.

"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 04-Ноя-24 03:14 
Тут немного не так.

Успешный менеджер ничего не придумывает.

Берет любую хню, которой можно прилепить правдоподобное обоснование, внедряет, отчитывается об успехах (вот это надо уметь) - получает повышение.
Если не внедряет - ищет работу в другой конторе и пытается повторить это там.

Так что все что нужно уметь AI что бы заменить менеджера - это как интерпретировать полученные результаты, что бы было похоже на хоть какой-то успех по хоть какому-то направлению.


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Вы забыли заполнить поле Name , 05-Ноя-24 02:33 
> В конце концов менеджер сможет получить ответ от пм и ему тут же нагенерят сервис и все без людей

Проблема у этого менеджера возникнет, когда он захочет что-то поменять или спросить почему это работает именно так, а не иначе...


"Google использовал большую языковую модель для выявления уяз..."
Отправлено Аноним , 05-Ноя-24 14:58 
Как замена регуляркам (сложные они, да и проблем становится сразу две) для обработки текста норм. Или JSON заполнить для тестовых данных по схемам. Или JavaDoc к методу накалякать норм. Ну рефакторинг в редких случаях можно сделать... Но чтобы прямо код писать, как-то не зашло - потом исправлять дольше.