Консорциум W3C представил первые черновые варианты спецификаций WebGPU и WebGPU Shading Language (WGSL), определяющих API для выполнения операций на GPU, таких как рендеринг и вычисления, а также язык шейдров для написания программ, работающих на стороне GPU...Подробнее: https://www.opennet.dev/opennews/art.shtml?num=55172
Что не так с WebGL или как оно там называется от khronos.
Upd: Понял. По идее большее раскрытие потенциала железа.
Да, а то майнеры на юзерских браузерах в пол-силы только работали.
Вот теперь-то - заживем!
Не стоит волноваться, Nvidia защитит юзера и снизит хешрейт до нуля.
А потом выложит драйвер с обходом защиты.
юзерам нвидии не привыкать
Ты на один уровень выше чем надо прокомментировал. Угу, так и сделает.
Было бы здорово иметь general purpose GPU программирование.Я так понимаю WebGPU для этого не подходит
Для этого ничего не подходит, что это за general purpose. Видеокарты это специализированные процессоры и точка
Вычисляем 2+2 через нейросеть и уже general purpose
И получаем 4.07437772576623
Результат получен после обучения нейросети на большом наборе данных проверок контрольных работ учащихся общеобразовательных учреждений.
А в «обычных» языках 0.1+0.2 складываешь и получаешь 0.30000000000000004
вопрос зачем считать по другому если если результат и там и тут не такой уж и точный.Это не говоря про то что человеческий мозг считает именно на обучении как считала бы GPU с ML и всем как-то норм.
Используй правильные языки, например, Лисп: (+ 0.1 0.2) дает точно 0.3
Lisp не умеет в IEEE 754? Умеет. Умничает и округляет там, где не должен?
> А в «обычных» языках 0.1+0.2 складываешь и получаешь 0.30000000000000004
> вопрос зачем считать по другому если если результат и там и тут не такой уж и точный.
?- X is rationalize(0.1) + rationalize(0.2), format('~80f~n', [X]).
0.30000000000000000000000000000000000000000000000000000000000000000000000000000000
X = 3/10.Ну или второй (после Rust) по популярности ЯП на опеннете:
>>> from fractions import Fraction as F
>>> x=F("0.1") + F("0.2");print(x);print(float(x))3/10
0.3
>>> x=F("0.1") + F("0.2");print(x);print(float(x))Write once, never read. Одобряю! Гвидо недоработал.
А первый пример на каком языке?
> Write once, never read. Одобряю! Гвидо недоработал.'>>>' == копипаста из интерактивной консоли. Зачем ее перечитывать? o_O
> А первый пример на каком языке?SWI-Prolog
>> Write once, never read. Одобряю! Гвидо недоработал.
> '>>>' == копипаста из интерактивной консоли. Зачем ее перечитывать? o_OДабы каждого дур… сразу было видно, на каком языке написано.
>> А первый пример на каком языке?
> SWI-PrologСпасибо.
и язык тут непричем, это к вопросу о хранении вещественных чисел и их конвертации из десятичной системы счисления в двоичную.хочешь быстро и с относительно небольшой точностью - сойдет и так.
Хочешь с точностью до 1000 знака - пострадает производительность.в большинстве случаев подобной точности хватает.
2+2 ладно
А вот с x+y у нейросетей уже большущие проблемы.
Это GPGPU программирование. Когда обсчитывается не графика.Cuda - самое что ни на есть general purpose
OpenCL и CUDA поддерживают ядерную модель вычислений.
Как Хронос умудряется Вулкан называть подходящим для GPGPU... Рекламный ход уровня безопасность раста.
Вы только посмотрите на эти в 6 раз более жирные образцы GP-кода для вулканического.
У OpenCL есть проблема: это отдельный стандарт. Казалось бы, ставь библиотеки и вперде, но на мобилках это оборачивается кучей геморроя. Тогда как вулкан есть на всех мобилках, начиная с 8й версии андроида.
Вулкан то есть, вот только видеочипов его поддерживающих может и не быть.
> Видеокарты это специализированные процессоры и точкаНе, это CPU -- специализированные процессоры и точка, они годятся только на то, чтоб в GPU грузить шейдеры с данными. А вот GPU реально может процессить данные.
для браузеров есть какая-то опенцл ветка..
Была. Только для Firefox. Ещё был RiverTrail с компиляцией JavaScript в ядра для OpenCL для выполнения на GPU. Ключевое слово - "был".
Ура, гпу майнеры в рекламе!!!!
Купите подписку или помайните чтобы отключить рекламу.
уверен что так и будет. вебпомойка становится жаднее с каждым днем.
Отвратительный стандарт, сделанный и протолкнутый всеми нами любимой корпорацией ради деструктивной деятельности: шпионить, фингерпринтить, взламывать через кривые дрова и микроархитектуру, и майнить за чужой счёт. Просто стандарт курильщика. Стандарт здорового человека бы не давал прямого доступа к GPU, предоставлял высокоуровневый интерфейс - всё равно почти все веб-приложения на WebGL используют высокоуровневые библиотеки и движки, а низкоуровневый доступ нужен обычно только авторам движков и исследователям.
Сделали лоулевел: ужас, дыры, вирусы
Сделали хайлевел: ужас, всю память сожрало, 5 фпс
GPU в веб вообще не нужен, с доступом или без него.
>Сделали хайлевел: ужас, всю память сожрало, 5 фпсНаоборот. Вместо движка на JS и WASM, своего для каждого сайта, движок написанный на C++ и оптимизированный специалистами геймдева подгруженный в браузер в виде shared library и шарящийся между процессами. Меньше потребление памяти, лучше производительность, меньше возможностей ломать, высокоуиовневое API, удобное для веб-разрабов, никакого васма для веб-приложений, использующих 3D, для получения нормальной производительности не требуется вообще, чистенький JavaScript для руления движком рендеринга (для игр правда потребуется, ибо там нужен ещё физический и ИИ движок, перепоетённый с игровой логикой) ... Выглядеть это в самом минимальном виде может как класс для вектора из 4х компонент, класс для матрицы 4x4, класс для сеток из вершин, класс для материалов, класс для эффектов, класс для камеры, класс для проекции, класс для источников освещения, класс для сцены и подсцены, класс для объекта, класс для объекта-эффекта и класс для рендерера. Разработчик задаёт положение и параметры осветителей, модель освещения, параметры рендеринга, задаёт сцену как граф из объектов, каждый из которых получает оболочку в виде сеток и материал, задаёт специальные объекты-эффекты (обычно системы частиц), такие как пламя или молния или облако, задаёт положение камеры ... В общем всё, никакой самостоятельной свистопляски с общением с GPU, всё это должен брать на себя движок.
То есть, "One Engine to rule them all?" А если я, вот, хочу другой движок - все? Облом? Нужно делать именно так, как во встроенном в браузер написано?
А если хочешь другой движок - то "скачайте наше приложение под винду, винду, винду винду и винду".А в браузере, действительно - всьо, потому что у пользователя НЕТ возможности дать по рукам твоим хотелкам до того как они похозяйничают в его компьютере.
> Нужно делать именно так, как во встроенном в браузер написано?
да. Потому что твой код - untrusted, и чем меньше у него вариантов работы, тем спокойнее. И если бы w3c не был филиалом гугля, он нахрен должен бы был закрыть ему дорогу на чужие компьютеры.
>То есть, "One Engine to rule them all?"Не совсем так. 1 API to rule them all. Движки могут быть разные, но должны быть совместимы как по API, так и по его семантике и результатам. Но поскольку различие в движках фингерпринтится, то лучше всё-таки 1 engine to rule them all, причём обновляемый отдельно от браузера.
>А если я, вот, хочу
Хотеть не вредно.
>другой движок - все? Облом?
Полный облом.
>Нужно делать именно так, как во встроенном в браузер написано?
Почему-то вас не смущает, что когда вы пишете под OpenGL, то вы используете API OpenGL, когда пишете под Windows - то используете WinAPI, в Линуксе используете предоставленные ядром примитивы, а не свой драйвер со своими примитивами через ioctlы (да и сами ioctlы - это навязанный ядром интерфейс), когда выводите звук - то OpenAL. Да что мелочится, когда хотите, чтобы программа работала на процессоре, то приходится использовать его набор инструкций.
Если не хватает функции - то идёшь допиливать эталонный. Помнится GPL-копирасты вопили "обязывает вносить вклад, не как пермиссивщина". Тут движок можно лицензировать хоть под Unlicense, сам побежишь вносить вклад и ещё умолять его принять будешь. Так что двржок со временем станет самым вылизанным, что его даже десктопные программы станут юзать.
Это наши машины, и рендеринг графики на веб-сайтах нам не очень-то и нужен. Мне ни разу не WebGL не потребовался с 2018. Если сможете гарантировать, что через него нас атаковать не будут, и он будет не особо жирный, то пусть будет. Если нет - то и без него проживём.
А ты еще не понимаешь, что уже никогда не получишь выше перфу на старых машинах?
Никакой """low-level""" тебе не поможет.
Наконец-то сайты будут взламывать юзеров через баги в 3д драйверах
Зачем через баги, там напрямую все можно будет.
Ещё одна прослойка, несущая нам счастье?
Шиткоины сами себя не намайнят!
WebAssembly, WebGPU... когда уже займутся делом завезут WebPC? А то – всё по частям...
WebClouds вместо HDD уже завезли.
> А то – всё по частям...IBM PC идеолгогия же. За цельным и неделимым WebPC вам к Apple Safari.
Был отличный opengl.
Microsoft захотела монополии, выдавила ее, а потом саботировала его разработку.
Когда и микрософт заглохла, amd подсуетилась сделала mantle, открыла это все, скооперировалась и сделали vulkan. Всем хорош, везде можно запустить, производительный и даже мелкийсофт вроде как не против. И тут вылезает apple и говорит что не хочет как все и будет поддерживать только metal. Так что какой стандарт не принимай, лебедь, рак и щука не договорятся. Да и не нужен он, браузер не для того создан. Есть 100500 кроссплатформенных открытых движков способных рендерить гораздо быстрее и проще при этом не увеличивая размеры браузера, не снижая безопасность остальных пользователей веба и не создавая очередной стандарт нужный полтора обезьянам.
Спасибо за "экспертное" мнение о нужности веб-технологий.
Мы Вам не перезвоним.
и тебе, анон, за твой ненужный комментарий
> Был отличный opengl.Насчет "отличный" вы, конечно, малость погорячились.
В начале 90х это был лучший api от лидеров рынка. Другое дело что с 95 его не сильно развивали, а с гегемонией мелкософт специально замедляющей opengl и вовсе поддержка его имела все меньше смысла. Его до сих пор нередко выбирают из-за его простоты, несмотря на то что он давно стал !@$$%% мамонта.
лучший, верно
но 30 лет уже прошло
опенгл был отличным а потом устарел.
следует также понимать что все эти стандарты не только и не столько для браузера принимаются, браузерный стэк как платформа приложений весьма популярен и удобен.
он неудобен, а популярен, потому что "а куда вы денетесь"
> Был отличный opengl.После этого можно было не читать. Только с появлением Vulkan появилось что-то кроссплатформенное, от чего разрабы серьезных 3D-приложений (в основном игор) не плачут кровавыми слезами.
> И тут вылезает apple и говорит что не хочет как все и будет поддерживать только metal.
Главные по NIH-синдрому в очередной раз сказали, что у них будет не как у всех - Ни разу такого не было и вот опять.
Apple молодец не надо поддерживать этот отстой. Они еще и свою видюху выпустят, которая всех сожрет.
> тут вылезает apple и говорит что не хочет как все и будет поддерживать только metalДа как-то не очень у них получилось. Все положили болт, и если и реализуют поддержку, то в последнюю очередь по останочному принципу.
ага, чтоб заходил на сайт, и у тебя сразу же майнер там подхватывался в полную силу, и денюшки владельцу сайта текли на его кошелек.
Интереснее не на полную силу.
Чтобы контент был интересный, подольше задержать на сайте.И аккуратненько майнить.
Пользователь и ещё потом придёт.
где я тебе "интересный" возьму, интересно?Подольше - и так задержишься, пока мой сайт отрисует все ненужные детальки. Даже и не заметишь, что теперь он еще и майнит.
Один небезызвестный видеохостинг так что-то считает на клиентских компах, пока юзеры видео смотрят.
Там вряд ли койны, но какие-то блоки данных туда-сюда тягаются постоянно.
Заметил на ноуте у родственников - пожаловались что при просмотре видео вентилятор взвывает, оказалось что только на одном сайте, поглядел - там какая-то считающая хрень во время просмотра наворочена.
это ты сейчас ютуб так обос..л?Не считает, думаю - собирает и подсовывает информацию. Ну и что что ты зашел не за этим а видео конкретное посмотреть?
Иногда полезно иметь браузер, умеющий оборвать загрузку и исполнение любых скриптов.
И да, херак и лоад падает до нуля - при том что видео-то как раз играется.
Не, не ютуб.
Да, не уточнил: российский видеохостинг с фильмочками.
Ждём массового перфорирования.
> добиться более высокой производительности
> на JavaScript
> средства для низкоуровневого контроляИ как там в одном потоке то, асинхронно, да и без типов данных?
> И как там в одном потокеWorker'ы уже запретили?
> асинхронно
А это хорошо или плохо?
> и без типов данных
А куда типы делись? Их тоже запретили, как и worker'ы?
Ох уж, эти экспертные комменты...
Аааа. Не знал, что появились эти костыли поверх костылей.
Из костылей если только воркеры, асинхронность и типизация были в JS с момента его создания.
Обожаю комменты на опеннете, столько "экспертов" на квадратный байт поражает.
Лучше уж WebAssembly, чем JS-мутант. Но даже на WASM без взаимодействия с этой лапшой не обойтись.
Издеваются над web как хотят, скоро комп под браузер подбирать придется
Уже. 8 гигов говну от мозиллы уже мало на линуксе.
А что менее говняное, гуглохром, негуглохром, блюэйв, 100500 клонов хрома? Проснись, разрабы уже 20 лет в оперативку срут.
W3C продолжает плодить стандарты выкатывая хотелки от Apple, Google, MS. А пользователей браузеров или прикладных разработчиков забыли спросить. Отсюда еще один мертворожденный продукт: сколько сейчас используют WebGL 2.0, пара десятка сайтов? Еще меньше будут использовать WebGPU.
Ненужно. Это очередной OpenGL/Vulkan. Директхэ закрытый ведь. И вот создать то свое хочется, а не использовать уже развитый вулкан, который даже на старых процессорах а Quake Champions показывает очень хороший фпс. А это нечто как бы выжимать все соки из инди игр на браузере что-ли? Заткните себе жабу в зад. Си кросплатфооменный, С++ тоже, остальное от лукавого. Бездари не выпустившие ничего стоящего вымучивают просдойку. Нафейхоа? Думаю чтобы всем жизнь испоганить. Потом сделают эту хрень только для новых жпу. Покупайте новые видеокарты, и смотрите на новых процессорах фпс почти как на вулкане.
> WebGPU предоставляет приложениям на JavaScript средства для низкоуровневого контроля за организацией, обработкой и передачей команд к GPUНука нахрен убрали свои тентакли от моего железа!
JS головного мозга
Даёшь ещё больше рекламы в web!...
Для майнинга крипты используются известные алгоритмы. Достаточно просто запретить вычисления на этих алгоритмах и не будет никакого скрытого майнинга.
Достаточно просто посадить всех майнеров за выпуск денежных суррогатов, запрещённых в РФ (а интернет из-за рубежа вам обрежут и так).
> Достаточно просто посадить всех майнеров за выпуск денежных суррогатов, запрещённых в РФНу вот что я-то вам плохого сделал?! Я, если что, гуглем не управляю. И представителей Спёр(tm) в w3c не засылал.
Вам подчинённые не сообщили, что стейблкоины майнить не надо, там цифровая подпись эмитента (Мавроди бы одобрил, если бы жив был) вместо PoW?
Если что и запретить, так это доллары, которые США безлимитно печатает для скупки всего, обесценивая труд остальных людей. А криптовалюту как отдушину не трожь.
А у вас уже есть алгоритм - как определить, тем алгоритмом считается или нет? А то ведь один и тот же алгоритм сотней разных способов можно написать.
Алгоритм хеширования определённой криптовалюты всегда одинаков. Изменяется он через хардфорк (пример Монеро), что происходит крайне редко. Просто запретить этот алгоритм и майнер не сможет использовать ГПУ для добычи.
Ну вот допустим алгоритм хэширования - будет "сложить все числа и найти остаток от деления на 13". А я вот сделаю - сложить все удвоенные числа, а потом поделить на два, и найти остаток от деления? И? Алгоритм другой, результат тот же. Можно конечно запретить находить остатки от деления, но это уже перебор.
Речь идёт о криптовалюте, а не об алгоритмах хеширования и криптографии как таковых.
А вы думаете там алгоритм хэширования какой-то особенный? Его точно также можно реализовать многими способами. И криптографию тоже.
Конечно особенный. Впрочем, я не буду спорить. Возможно правда за Вами.
Ну вот в Bitcoin например алгоритм SHA-256. Если вы поищете, то увидите, что хотя по нему есть стандарт, и вообще, он вроде бы как со всех сторон должен давать одинаковый результат, но реализаций у него куча.
>но реализаций у него куча.Что Вы имеете в виду? Майнер биткоина (программа) имеет определённые настройки.
Кстати Биткон на видеокартах давно уже не добывают. А те криптовалюты, что используют цп и гпу имеют специфические алгоритмы и настройки, которые больше нигде не используются. Вот их можно банить.
Вы не разбираетесь в том, о чём пишете. Вам лучше перестать позорится перед собеседником.
Забыл спросить Вашего разрешения. Я изначально говорил о криптовалюте, а человек рассказывает о криптографии, как таковой.
Скрытый майнинг на страницах успешно распознаётся и блокируется. АМД и Nvidia выпускают прошивки, ограничивающие добычу(их взламывают и модифицируют). Это говорит о том, что можно блокировать добычу по определённым признакам.
Я добываю крипту практически с момента появления Биткоина. Так что иди указывай своей жене.
> АМД и Nvidia выпускают прошивки, ограничивающие добычу(их взламывают и модифицируют). Это говорит о том, что можно блокировать добычу по определённым признакам.Они не блокируют. Они тормозят. Я не знаю как именно, но предположу, что просто некоторые операции выполняются дольше, чем могли бы. И я лично нахрен не буду покупать видеокарту, которая искусственно заторможена -- а если моя нагрузка окажется под ударом, и начнёт тормозить, потому что сильно полагается как раз на ту отторможенную операцию?
Всё верно. Снижают эффективность добычи крипты на ~50%. На остальные вычисления влияние не оказывается. Сейчас Nvidia готовит выпуск карт с аппаратной начинкой прямо в чипе, который сделает майнинг невозможным.
> Всё верно. Снижают эффективность добычи крипты на ~50%. На остальные вычисления влияние
> не оказывается.Кто тебе сказал? Nvidia? И ты поверил?
> Сейчас Nvidia готовит выпуск карт с аппаратной начинкой прямо в чипе, который сделает майнинг невозможным.
Хаха.
Хз. Чисто ради эксперимента могу купить пару карт и проверить 😄
> Хз. Чисто ради эксперимента могу купить пару карт и проверить 😄Как ты проверишь? Посмотришь, что майнинг тормозит? А как ты проверишь, что не-майнинг не тормозит?
Сейчас nvidia ведь чем занимается? Почему она вообще пошла на все эти трудности? Где гонка за 300% прибыли?
Ответ довольно прост: ежели нвидия ничего не сделает, то все новые видеокарты будут покупать майнеры, а у остальных выбора не останется, кроме как покупать не столь новые видеокарты в б/у варианте от майнеров. И ежели позволить этому случиться в достаточно массовом масштабе, то возникнет бизнес ориентированный на перепродажу видеокарт, он сделает эту перепродажу гораздо приятнее для всех вовлечённых сторон. И возникнув он будет очень сопротивляться устранению.
Ведь такой бизнес может приводить б/у-видеокарты в товарный вид, проверять работоспособность, приводить в нормальное состояние (перепрошивать на последнюю заводскую прошивку, устранять все разгоны и тп), даже давать гарантию -- если он продаёт эти карты тысячами, то почему бы не удержать сотню для того, чтобы заменять поломавшиеся? И да, можно ещё в красивую коробочку упаковать, переложить пенопластом, чтобы не повредилась при пересылке.
Если такое произойдёт, и это окажется финансово выгодным делом, то этот бизнес начнёт расширяться, он выжрет весь рынок б/у видеокарт, после чего ему станет тесно, и он переключится на что-то ещё, скажем на б/у системники, ноуты, смартфоны и прочее. Он даже может заняться ремонтом поломанной техники, причём не в масштабах полуподвального бизнеса, где два мужика с паяльниками что-то там делают, а в промышленных масштабах, где каждый божий день в цех отгружают вагон поломанной техники, и вечером забирают полвагона отремонтированной техники и полвагона отходов. Плюс, возможно, удастся ещё какие-нибудь услуги предоставлять, типа кастомного разгона, прошивки, схематических модификаций, или ещё что. Ну, прикинь, если ты приходишь и говоришь: хочу вот такой роутер под OpenWRT, но я окирпичить боюсь, и тут тебе выкатывают такой роутер под OpenWRT, который гарантированно работает, и ещё гарантию на него дают в год. А может ещё на нём блок питания сменят, чтобы usb порты побольше тока тянули бы, и на них соответственно больше всякого можно было бы понавесить. За отдельную плату, конечно.
Возникнет целый вторичный рынок б/у-техники, который будет не как авито, где ты покупаешь кота в мешке, а вполне серьёзный бизнес, с которым, возможно, даже предприятия начнут иметь дело, а не только индивидуалы. А это значит, что продажи новой техники, начнут падать. А потом майнерам надоест покупать новые видеокарты, и попробуй кому-нибудь эту новую видеокарту затем впарить.
Это конечно же гипотетический сценарий, и может быть излишне оптимистичный, но он будет очень болезненным для Nvidia, Intel и AMD. И поэтому, всё что сейчас Нвидия делает, или говорит, что делает, надо рассматривать как попытку избежать такого сценария. Им надо предоставить видеокарт страждущим игроманам настолько, чтобы тех кому не достанется было бы недостаточно много, для возникновения вторичного рынка. Тех кому не достанется новой надо убеждать в том, что им не нужна б/у видеокарта. Что надо подождать чутка и всё станет хорошо. Чисто информационные меры могут сработать, в том смысле что если не сделать ничего, но сказать, что сделали, то это может дать время. Все эти разговоры о предотвращении глобального потепления -- это не причина действий Nvidia, а метод достижения цели. Один из методов.
Каждый найдёт для себя выгоду. AMD отказались от попыток заблокировать майнинг. Nvidia разработали аппаратное решение для блокировки. Если В. Бутерин (Ethereum) всё-же переведёт сеть на PoS (без майнинга), ситуация с картами должна улучшиться.
Кстати вот более-менее свежая новость:
>Представлена антимайнинговая видеокарта GeForce RTX 3060 Ti. Эффективность добычи криптовалюты Ethereum снижена больше, чем на 50%
>GALAX RTX 3060 Ti Black General [FG]. Она построена на графическом процессоре GA104-202 (LHR) с аппаратной защитой от майнинга. Как сообщается, производительность этой модели при добыче Ethereum составляет всего лишь 25 MH/s — это при том, что эффективность обычной GeForce RTX 3060 Ti при ряде оптимизаций достигает 60 MH/s. То есть можно говорить о снижении производительности более чем в двое.
>В остальном GeForce RTX 3060 Ti на GPU GA104-202 ничем не отличается от ранее выпущенной GeForce RTX 3060 Ti — характеристики и производительность в играх у них одинаковы.
Владимир, не мечите бисер - вы спорите с феноменально т-пым представителем опеннетной фауны.Они тут не умеют кодить и вообще ничего не понимают в алгоритмах.
>с феноменально т-пымНо мне это не помешало неплохо заработать используя эти алгоритмы 😁
так для этого ума-то и не нужно. Да и не ты их используешь, а те кто знают и умеют.
(Используют в том числе тебя, кстати.)
>Кроме 3D-графики WebGPU охватывает и возможности, связанные с выносом вычислений на сторону GPU и выполнением шейдеров.Больше утечек данных в результате исполнения левого кода, больше!
Бедный веб...
Вот был же (недолго) некий VRML, куда дели, ироды? Ну и браузер надо походу отучать работать через аппаратное ускорение (в генте флаги покурить).
бесполезная херня, как на твоем vrml майнить-то вообще?!> Ну и браузер надо походу отучать работать через аппаратное ускорение
потом открываешь сайт одной мелкой лавки - жратвы себе прикупить к завтраку - и наслаждаешься пустым местом и час не отвечающим браузером.
Хочешь перевести денег другу, чтоб тот купил тебе пива хотя бы - сайт малоизвестного банка тоже пустое место.
И так будет с каждым, потому что без ненужно-пустых-мерцающих-серых-прямоугольничков веб-макаки сегодня жить не могут (да, это так безумно тормозят модные полифилы).
> потом открываешь сайт одной мелкой лавки - жратвы себе прикупить к завтраку
> - и наслаждаешься пустым местом и час не отвечающим браузером.
> Хочешь перевести денег другу, чтоб тот купил тебе пива хотя бы -
> сайт малоизвестного банка тоже пустое место.Таким не пользуюсь. За кормом хожу сам, друзья до меня доезжать уже перестали + спиртное не употребляю вообще :D.
> Таким не пользуюсь.ну если дальше впопеннета в интернет не заглядывать - то тебе от webgpu и угрозы никакой.
Что вот теперь делать тем, кому все же интернет нужен - непонятно. Ну, надеяться, что где-нибудь недовыпилят api через которое ублок сможет перехватить попытки использовать очередное вредное ненужно.
> Что вот теперь делать тем, кому все же интернет нужен - непонятно.Через пару лет:
-- Слыш, ты чо, майнер? Это из-за тебя у меня мобила села и я стрелку засохатил?!
-- Тащ. майор, хулиганы зрения лишают!11
-- Зайдите на сайт, оставьте свои координаты, отправим ещё пару хулиганов.
>Вот был же (недолго) некий VRML, куда дели, ироды?https://www.web3d.org/x3d/what-x3d
Extensible 3D (X3D) Graphics is the royalty-free open standard for publishing, viewing, printing and archiving interactive 3D models on the Web. X3D and HANIM standards are developed and maintained by the Web3D Consortium. Now available: X3D4.
X3D has evolved from its beginnings as the Virtual Reality Modeling Language (VRML) to the considerably more mature and refined ISO X3D standard.
Теперь майнеры monero через сайты будут майнить загружая видеокарту на полную!
> WebGPU даёт возможность создавать для Web сложные 3D-проекты, работающие не хуже, чем обособленные программы, напрямую обращающиеся с Vulkan, Metal или Direct3Dbullshit.
а кто мешал предоставить Vulkan наружу и сделать стандартом? запросил разрешение у пользователя и всё - как с Locationно не Apple надо Metal
Уже имеем Vulkan, Metal и DirectX -> нужно создать еще один единый, так как Vulkan'а нет на маках... У Apple же своя экосистема. Надо было слать их лесом. Вангую далеее WebGPU выйдет из веба, и станет системным, т.к. он единственный будет работать на всех системах...
Веб стал таким монстром из-за того, что он единственный обеспечивает достаточную кросплатформенность. Написал веб приложение, и оно запустится везде, где есть браузер. Очень удобно. Сейчас браузер - это ОС в ОС - т.е. мы по сути имеем лишний слой, выполняющий роль адаптации. А ведь изначально веб был для сайтов, для отображения текста и картинок, чего не хватало для полноценных приложений, но для этого он и не предполалаглся. Развитие веба пошло по кривой дорожке и в том числе из-за скудности стандартной библиотеки С++. Если бы найтивные кросплатформенные приложения можно было бы писать также просто, как веб приложения, этого бы не произошло. Сейчас же, на мой взгляд, уже нужен отдельный минимальный веб, с минимальным JS, без XML/HTML, которые ни читать ни парсить не удобно, что-то по типу QML, для всех тех случаев, когда нужен старый добрый простой сайт, из текста, картинок и видео. А текущего монстра оставить для приложений, и тех, кому они нужны.
>Если бы найтивные кросплатформенные приложения можно было бы писать также просто, как веб приложенияДа было уже 5.5 раз. ActiveX, Java, JavaFX, Silverlight, Flash, Flex.
Это всё не найтивные. Найтивные, проще говоря, которые запускаются без промежуточных слоев, прямо в системе, а не в виртуалке.
Было уже, ActiveX называлось.
> Написал веб приложение, и оно запустится везде, где есть браузер.то есть в винде, винде, винде, и вот...винде. Потому что на макоси да, но нет. Ну и может быть в линуксе, если повезет. Впрочем, кому тот с его 1% нужен.
Очень удобно.
А если браузера...простите, Браузера, потому что все остальные, разумеется, не могут поддерживать webgpu поверх еще мильена бредовых фич, под эту платформу по какой-то причине нет - жыт там, говорят, какой-то, не позволяет под неправильные платформы ему собираться, или еще какая-то фигня (то что это не windows, например) - то опачки.
Чем больше W3C изобретает всякой ахинеи и "давайте так же как на декстопе", тем больше возникает вопрос: на нафиг вы вообще нужны со своим браузером??! МЫ ВСЁ ЭТО УЖЕ ИМЕЕМ. Прямо на десктопе. Безо всяких стандартов от старых пердунов-гипертекстников.
Нет, это МЫ вас уже имеем. Прямо на десктопе. Разложили и пялим. Как хотим.
Наш ведь веб, наш браузер, наш w3c, кстати. Вот десктоп еще не совсем, но будет.
Осталось браузер в ядро вшить, и заживем.
WEB - это не платформа, а средство шпионажа.
Всё, что имеет хоть какое-то отношение к сети, является средством шпионажа.
Еще один, более надёжный, способ fingerprinting