Компания Google объявила о реализации в браузере Chrome режимов экономии потребления памяти и энергии (Memory Saver и Energy Saver), которые планируют довести до пользователей Chrome для Windows, macOS и ChromeOS в течение нескольких недель...Подробнее: https://www.opennet.dev/opennews/art.shtml?num=58311
640 килобайт должно хватить всем!
64 гигабайт :)
640.
терабайт
6.4 терабайт
"хватить всем!"PS Предложите своё )
640 всем не хватит
Без тонн рекламы и жирных медиа даже половины от 640 Кб хватит практически всем
Не верю.
Даже для странички, выводящей "Привет, Мир!", на JS-фреймворках разумеется, сейчас без это нельзя, и то не хватит.
Даже с жирными медиа возможно бы и хватило. но для этого качественно пришлось бы улучшить штат программистов. А это намного дороже, чем плашка памяти. Так и живем.
> 640 килобайт должно хватить всем!Давай я тебе расскажу, как появилась эта фраза.
16-битная адресация позволяет адресовать 64 килобайта памяти. На широко известных процах MOS 6502 и Zilog Z80 был 8-битный размер машинного слова и 16-битная адресация.
Проц 8086 был 16-битным процом с 20-битной адресацией. Позволял адресовать мегабайт.
Однако это была вторая половина 70-х. В то время в компьютерах было совсем оперативной памяти. Дело в том, что память стоила слишком дорого. И пому мегабайт был никому не нужен.
Поэтому Intel выпустила процессор 8088. Это был всё тот же процессор, но с 16-битной адресацией, которая позволяла адресовать только 64 Кб.
Это позволяло удешевить компьютеры. Разводить меньше контактов под память. Использовать меньше физической памяти, т.к. обычно нужно использовать все имеющиеся контакты под память.
При этом, внутри процессор всё так же оставался 16-битным с 20-битной адресацией. Соответственно, программы использовали 20-битную адресацию. Просто последние четыре неиспользуемых бита адреса просто заполняли нулями. Это позволило впоследствие безболезненно перейти на 8086.
Сначала вышел IBM PC. Проц 8088, 64 Кб памяти (была ещё модель с 16 Кб памяти). Спустя несколько лет, вышел IBM PC XT. Памяти у него теперь был мегабайт (память подешевела). Однако и того мегабайта было доступно только 640 Кб.
Дело в том, что IBM написала спецификацию для IBM PC XT. Когда первые 640 Кб отдаются пользователю, а остальное пространство вплоть до конца первого мегабайта отдаётся под служебные нужды. Например там было окошечко 64 Кб для общения с видеопамятью.
Однажды наступил момент, когда юзерам стало не хватать 640 Кб ОЗУ. Появилась так называемая EMS-память. Там каким-то образом подрубались к памяти и добавляли ещё. Я не в курсе, как именно. При этом, прога должна знать, что память EMS в принципе существует. В противном случае, прога попросту не увидит дополнительную память.
Затем Intel выпустила процессор 80286 (или просто 286). 16-битный процессор с 24-битной адресацией. Теперь можно адресовать 16 мегабайт. Понятное дело, что 16 мегабайт на компьютерах того времени не было. В 1992 году, в год выхода Wolf3D, нормальным объёмом памяти считалось 2 Мб, а в 1993 году (в декабре месяце, почти что уже в 1994) нормальным объёмом памяти считалось 4 Мб. Так что 16 Мб, это теоретически лимит. Мол, задел на будущее.
И вот юзеры IBM PC XT ждут следующую версию компа, в котором будет 80286 процессор, и с которым не надо будет трахаться с EMS-памятью, чтобы преодолеть лимит в 640 Кб ОЗУ. Вышел IBM PC AT. На 286-м процессоре. Таком долгожданном! А что там насчёт двух мегабайт памяти вместо одного?
Ой.
Оказалось что, чтобы использовать 24-битную адресацию, надо использовать новый режим работы с памятью. Стандартный режим.
РЕАЛЬНЫЙ РЕЖИМ (8086)
СТАНДАРТНЫЙ РЕЖИМ (286)Стартует комп (реальный режим). Стартует BIOS (реальны режим). Передаёт управление операционной системе (реальный режим). Запускается командный интерпретатор COMMAND.COM (реальный режим). Запускается пользовательская прога, которая переключает компьютер в стандартный режим. Юзер в ней поработал, а потом захотел прогу выключить.
Ой.
Проц НЕ МОЖЕТ переключиться в реальный режим. COMMAND.COM не может работать в стандартном режиме. Дело в том, что COMMAND COM был написан в те времена, когда ему надо было работать на 64 Кб ОЗУ (и даже на 16 Кб ОЗУ). Экономили каждый байт. Поэтому COMMAND.COM работал только в реальном режиме. Прогу можно переписать таким образом, чтобы она могла работать и в стандартном режиме, но тогда потеряется обратная совместимость.
Безвыходная ситуация. Или давайте весь имеющийся багаж прог под IBM PC пересобирать из исходников под стандартный режим. Или пользоваться прогами под стандартный режим, а потом перезагружать компьютер, чтобы вернуться в реальный режим. Или же проигнорить стандартный режим вовсе, как будто его и не существовало.
Именно так и поступил майкрософт. На вопрос "а как же два мегабайта памяти?" те ответили "а что, вам 640 Кб мало? По-моему, 640 Кб памяти хватит ещё очень надолго".
Что было дальше? А дальше вышел 386 процессор - 32-битный проц с 32-битной адресацией, в котором Intel пофиксила все недостатки, которые Microsoft нашёл в 286 процессоре.
РЕАЛЬНЫЙ РЕЖИМ (8086)
СТАНДАРТНЫЙ РЕЖИМ (286, был дружно всеми проигнорен)
ЗАЩИЩЁННЫЙ РЕЖИМ (386)
LONG LONG РЕЖИМ (x86_64, но я забегаю далеко вперёд, это будет только 2003 году)Какие именно недостатки? Во-первых, возможность вернуться из защищённого режима в реальный без перезагрузки. Вот погонял ты в думчик, вышел и игры, а потом такой оп - и ты в COMMAND.COM-е.
Во-вторых, АППАРАТНАЯ ВИРТУАЛИЗАЦИЯ, чтобы запускать программы, которые в своё время были написаны для real mode (и знать не знают ни про какой protected mode), внутри многозадачной операционной системы. Операционка работает в protected mode, прога тоже работает в protected mode, однако ей кажется, как будто она работает в real mode. Ей кажется, что она имеет монопольный доступ к первым 640 Кб оперативной памяти компьютера. На самом деле, она работает в виртуальном адресном пространстве, и диапазон реальной физической памяти ей могли выделить какой угодно. Это работает БЫСТРО благодаря тому, что подобная переадресация работает аппаратно. Фича называется VM86.
А затем, уже ПОСЛЕ выпуска 386 процессора, внезапно выяснилось, то на 286 процессоре тоже можно вернуться из стандартного режима в реальный (через клавиатурное прерывание, но медленно), и 24-битную адресацию памяти можно поюзать, прям не выходя из реального режима.
286-й процессор всё ещё являлся актуальным процессором (никто ещё не перешёл на 386-й процессор, потому что он к этому моменту вышел совсем недавно, и пока что стоил дорого). Поэтому Microsoft поступила следующим образом. Актуальной версией операционной системы была Windows 2.0. На её основе, Microsoft выпустила Windows 286 и Windows 386.
Windows 286 имел в своём составе новый драйвер HIMEM. Используя этот драйвер, прога под виндой могла использовать вплоть до 16 Мб ОЗУ. При этом, сама винда по-прежнему работала в real mode, продолжая игнорировать standard mode и дальше, и реализуя многозадачость прям в реальном режиме.
Что интересно, HIMEM загружался ещё на этапе доса (был прописан в CONFIG.SYS), поэтому досовские программы с радостью начали использовать новую фичу. В итоге драйвер добавили в стандартную поставку доса, и больше не надо было ставить ради него винду.
Windows 386 получил возможность одновременного выполнения нескольких программ. Так-то и в Windows 286 несколько прог выполняются одновременно, однако когда вы выбираете одно окно, другое встаёт на паузу. На Windows 386, неактивные окна на паузу не встают.
Фактически то было 32-битное ядро системы с 16-битными прогами.
Также в Windows 386 вошла одна очень интересная прога. Она называется DPMI. "Расширитель памяти для DOS". При помощи неё, можно написать программу для DOS, которая использует Protected Mode и 32-битную адресацию памяти. Чем это отличается от 16-битной проги, которая использует HIMEM? Многозадачностью? Да нет - прога получается однозадачной. Так какой тогда смысл?
Дело в том, что 16-битная прога использует 20-битную адресацию, и при этом имеет возможность общаться с HIMEM, который использует 24-битную. "Слушай, HIMEM, я знаю, что где-то есть диапазон памяти, который я не вижу. Дай-ка мне оттуда такой-то блок данных. А теперь запиши туда этот". И вот так - гонять туда-сюда память. А с 32-битной адресацией, прога видит всю память, как открытую книгу. Так проще работать с памятью.
Поэтому Doom не работает на 286-х процессорах. Думу надо 4 Мб ОЗУ, и гонять куски данных из первого мегабайта в оставшиеся три мега 35 раз в секунду - маразм. Doom хочет нормальную полноценную 32-битную адресацию памяти.
Ну и 286-й проц не потянул бы дум, даже если его разогнать.
Вот, а потом вышел Windows 3.0. Там появилась новая фича - VESA VBE Protected Mode. Когда можно было избавиться от 64-килобайтного окошечка для общения с видеопамятью. Это дало старт высоким разрешениям, таким как 1280x1024 256 цветов.
Первым видеоадаптером с поддержкой Win32-режима стал адаптер от компании S3. Это был супердорогой адаптер, так как высокие разрешения требовали нескольких мегабайт видеопамяти. Использовалась память EDO, которая стоила дорого (а подешевела лишь в 1996 году).
На протяжении первой половины 90-х существовали супер дорогие видеокарты для типографий и прочих профессий, которым нужны высокие разрешения. Даже пафосный разъём для видеокарт появился - VLB (но использовался он чаще всео SCSI-контроллерами, благо что на матенках было несколько разъёмов VLB). Компания S3 как положила начало супердорогим видеокартам, так и положила и конец. S3 Trio 64+ - карта дешевле $100, которая умеет всё то же самое, что раньше умели только топовые решения. Как говорит Дмитрий Бачило, комментируя успех этой карты, "это как если бы сейчас ставить на все компьютеры GeForce 4090, которая стоит $80 и не греется".
Также в Windows 3.0 появился DMPI 1.0 (предыдущий имел версию 0.9). Казалось бы - ура, релиз! А то был какой-то пре-релиз 0.9. Но... многим версия 1.0 не понравилась, и они продолжили пользоваться 0.9. А в Windows 3.1 DPMI вообще не вошёл.
А потом появился DOS4GW, которым стали пользоваться почти все (во всяком случае, игры). Успех Дума заставил обратить на него внимание и остальных разработчиков игр. А вот когда релизнулся Quake, Id Software использовала там какой-то другой расширитель памяти для DOS. Но никто не бросился переходить с DOS4GW на него, так как уже существовал Windows 95.
Когда вышел Windows 3.1, всем казалось, что DOS это прошлое. Что будущее за Windows - как же всё-таки удобно открыть несколько окон сразу, и копировать результат вычислений одной проги в другую. В досе для этого пришлось бы выключить одну прогу и включить другую, а буфера обмена вообше не было бы (в лучшем случае, импортировать файл, в худшем - ввести результат с клавиатуры).
Да и конфиги какие тогда были! 486/66, четыре мега оперативы! А мажорчики так и вообще 6 или 8 мегов ставили! Мультимедиа, AWE32, сидиром, саундбластер! Досу тут места нет! Ни одна прога не тормозит! И тут выходит дум.
Ой, а оказывается, что, когда досовская программа запускается из-под доса, и она монопольно захватывает проц и видеокарту, то производителость получается такая, что графон поражает воображение. Аж сам Билл Гейтс впечатлился этой игрой (притом что за год до этого про Id Software вообще мало кто слышал). А под виндой доступ к видеокарте - непрямой, иначе никакой многооконности не будет, если каждая прога будет сама решать, где и что ей рисовать, не спрашивая разрешения операционной системы. А с непрямым доступом, производительность очень печальная. Myst, пасьянс и пошаговые стратегии.
Тогда Microsoft создал WinG, дав вожделенный прямой доступ прогам. Так Doom был портирован на винду.
Потом появился Windows 95, в котором WinG был заменён на DirectX. DirectX не успел войти в релиз, выйдя лишь пустя несколько месяцев. А впрочем, это уже совсем другая история
Отличный экскурс в историю костылестроения... Хоть я и почти всё знал, всё равно интересно было прочитать.
какая несусветная чушь.
проц 8088 имеет __абсолютно__ такую же адресацию, как и 8086, имеет ту же 20-разрядную шину адреса, разница только во внешней шине данных, ты написал столько текста и даже не удосужился проверить факты.
ты хотел показаться умным, а пёрнул в лужу, дилетант.https://www.datasheets360.com/pdf/-2018375000249894702?query...
> При этом, внутри процессор всё так же оставался 16-битным с 20-битной адресацией. Соответственно, программы использовали 20-битную адресацию. Просто последние четыре неиспользуемых бита адреса просто заполняли нулями. Это позволило впоследствие безболезненно перейти на 8086.
Слышал звон, да не знаю, где он...1) реальный, стандартный и расширенный - это режимы работы Винды;
2) реальный, защищённый и режим виртуального 8086 - это режимы работы проца.Далее по курсу, работать в защищённом режиме можно было и на 286'м процессоре, а Doom под Windows не работал не по причине видео-ОЗУ.
Watcom разработал сначала таки DOS/16M - это DOS-экстендер для работы в защищённом режиме процессоров 80286. Да, переход в реальный режим (как бы мы сейчас сказали, syscalls latency) слегка зашкаливал в своём подтормаживании, но работало.
Потом Watcom разработал DOS/4G - это DOS-экстендер для работы в защищённом режиме процессоров 80386. Однако, в отличие от DOS/16M, DOS/4G уже был вынужден считаться с тем, что его могли запустить и _не_ из реального режима - дело в том, что первое, для чего был использован режим виртуального 8086 (подрежим защищённого режима процессоров 80386) - это для эмуляции той самой расширенной памяти, придуманной ещё во времена 8086, при помощи EMM386 (и QEMM, и ещё некоторых других софтин), соответственно, перепрограммирование GDT/LDT/IDT в этом случае было не только излишним (всё уже украдено до вас), но и по очевидным соображениям приводило к глухому вису.
Так что DOS/4G пытался обнаружить эти менеджеры памяти и, при удаче, пользовался специальным интерфейсом - VCPI - для манипуляции ОЗУ.Однако же, _изнутри_ Windows VCPI был недоступен по причине его несовместимости с многозадачностью. Microsoft предложила другой интерфейс - DPMI (DOS Protected Mode Interface) для работы DOS-экстендеров изнутри DOS-сессий Windows.
Watcom ругнулся, разработал DOS/4GW, и Doom начал вполне себе работать под Виндой.А WinDOOM и WinG -- это вообще совсем другая история.
Спасибо за ответ.Я думал, что защищённый режим в 286 процессоре, и защищённый режим в 386 процессоре, это два разных защищённых режима. Хотя бы из-за адресации памяти: в одном случае это 24-битная, а в другом - 32-битная.
Про VCPI не слышал. Спасибо, буду читать.
"Google объявила о реализации в браузере Chrome режимов экономии потребления памяти и энергии... которые планируют довести до пользователей Chrome... в течение нескольких недель"А как насчёт того, чтобы после этого наконец сделать вкладки нормального размера, для людей, а не сраный постоянно истончающийся частокол?!
chrome://flags/ -> "Tab Scrolling" -> "Enabled - tabs shrink to a large width"
А по умолчанию для людей можно сделать? Ну чтобы поставил и пользуйся, или первое что надо делать в браузере от Гугла - гуглить как его настроить?
по количеству вкладок можно судить о том, имеет ли человек самоорганизацию.
у меня всегда одна вкладка, я крутой?
> по количеству вкладок можно судить о том, имеет ли человек самоорганизацию.Этот пафос про количество вкладок только от того, что у вас браузеры выжирают овердохрена и железо тупо не тянет. И потом, с чего вы вдруг порешали, что ваша самоорганизация лучшая для всех, она лучшая только для вас, потому что это субъективная категория.
> А по умолчанию для людей можно сделать? Ну чтобы поставил и пользуйся,
> или первое что надо делать в браузере от Гугла - гуглить
> как его настроить?Можно было бы, но тут видите ли в чём штука, если искусственно не ограничивать количество открытых вкладок, делая увеличения их числа дико неудобным к использованию браузер в целом, то так недолго и дойти до мысли, что "самый быстрый и экономный" браузер, по факту нихрена не быстрый и ниразу не экономный.
Поэтому по дефолту и вкладки частоколом и кэшироваться по-человечьи не могут, только надо какие-то настройки подкапотные крутить, да костыли использовать.
>> А по умолчанию для людей можно сделать? Ну чтобы поставил и пользуйся,
>> или первое что надо делать в браузере от Гугла - гуглить
>> как его настроить?
> Можно было бы, но тут видите ли в чём штука, если искусственно
> не ограничивать количество открытых вкладок, делая увеличения их числа дико неудобным
> к использованию браузер в целом, то так недолго и дойти до
> мысли, что "самый быстрый и экономный" браузер, по факту нихрена не
> быстрый и ниразу не экономный.
> Поэтому по дефолту и вкладки частоколом и кэшироваться по-человечьи не могут, только
> надо какие-то настройки подкапотные крутить, да костыли использовать.А по поводу гугления, как это сделать, вы ещё, попробуйте подобные вещи нагуглить, составляя запросы в стиле рядового пользователя, много интересного узнаете. [нет]
По умолчанию для людей и сделали. А нердоте невпервой в конфигах ковыряться. Вам же сделаешь удобно, сразу начинаете ныть, что любимую цацку отобрали и понастраивать не дают.
> chrome://flags/ -> "Tab Scrolling" -> "Enabled - tabs shrink to a large
> width"Спасибо тебе, добрый человек! Хоть в итоге и получается несколько криво, но зато много лучше, чем было!
Я бы тебя плюсанул, но Анонимов тут угнетают, поэтому только так: "+"!
Я из-за этого частокола пользуюсь FF. Спрашивал как другие могут хромым пользоваться: кто расширения без конца меняет для этого, кто оперой пользуется :)
> Я из-за этого частокола пользуюсь FF.Выбирать браузер не по тому, какие у нее средства для повышения безопасности и изоляции процессов, а по какому-то третьестепенному гуйному аспекту 🤦♂️
"безопасность" "изоляция процессов" пафос стёк с экрана.
Дайте мне быстрый, маложрущий браузер, а я вмку позапускаю для него
> Дайте мне быстрый, маложрущийОбычно это взаимоисключающие понятия. Для любого маложрущего по оперативе алгоритма найдется более быстрый аналог, жрущий гораздо больше оперативы. Хром стремится в первую очередь к скорости.
Выбор из двух движков, а остальное шкурки к одному из них. Так что да, по гуйному аспекту.
>> Я из-за этого частокола пользуюсь FF.
> Выбирать браузер не по тому, какие у нее средства для повышения безопасности
> и изоляции процессов, а по какому-то третьестепенному гуйному аспекту 🤦♂А ничего удивительного, безопасность в браузере штука эфемерная, если ты явно на этом не помешан, а вот явное и предельно ясное удобство/неудобство использования - всегда, для большинства пользователей будет на первых местах.
большинство людей не открывает по миллиарду вкладок и не сталкивается с "частоколом"
> большинство людей не открывает по миллиарду вкладок и не сталкивается с "частоколом"В вашем мире - ваше большинство, наверное это окружающее вас "большинство"
У нормисов же весь браузер засран вкладками, у них правда частенько говнояндекс-браузер, но сути это особо не меняет.
+100500
Мне иногда даже кажется, что они просто не знают, что вкладки можно закрывать.
Тем временем:>Reason for revert: To restore JXL Support after industry feedback.
https://chromium-review.googlesource.com/c/chromium/src/+/40...
Здравый смысл восторжествовал? Ничего даже примерно аналогичного по качеству и эффективности сегодня не существует, даже если не брать в расчёт современный набор возможностей и только качество картинки в пересчёте на размер файла. Это относится и к лосси и к лосслесс. Хотя я посмотрел отзывы на похорониксе и люди просто не понимают что это и как использовать (да и как сравнивать, наверно).
Тамошние комментаторы не сильно лучше здешних, разве что повежливее и без анонимов. Но им, внезапно, и не нужно это все знать, как и среднему человеку. Ваше утверждение нужно доказывать не в комментариях тут или там, а разработчикам гугл хрома объяснять... Впрочем, это может быть и политическое решение со стороны гугла.
Не разработчикам, а менеджерам, т.к. сильно вряд ли кусок кода помешал именно разработчикам.
лучший браузер после safari.
>лучшийhttps://www.mozilla.org/ru/firefox/all/#product-desktop-deve...
Netscape Navigator лучшее. Жрет гораздо меньше. А то что современный говновеб в нем криво отображается, так это к вебмастерам.
>за счёт освобождения памяти, занимаемой неактивными вкладкаминаверное, сильно сложный код получился. несколько месяцев сидели, весь движок для JS перебирали, утечки находили.
В Опере это было в 13 году, но поскольку лицензия Хромиума пермиссивная, Хрому, видимо, ничего не перепало.
Дачным-давно естьhttps://reddit.com/r/chrome/comments/b3x1kq/stop_tabs_from_u.../
Просто эксперты Opennet, почему-то считают всё на эту тему этаким единым-атомарным флагом «сделано/ не сделано» и всё.
Как колесо придумали данным-давно, а там шины всякие, спицы — это уже неважно.
В том то и странность, что в мобильных версиях подобное работает уже давно и постоянно а не при низком зарядеПоначалу сильно бесило - загрузил десяток вкладок, потом в метро едешь, думаешь, почитаешь годноты, открываешь вкладку - и фиг тебе, начинает перезагружаться что не получается в отсутствие интернета
Неясно только, почему их сохранять нельзя было а при открытии - не начинать с ходу обновляться
Экономят память, для рекламы? От которой все будет тормозить.
Я не понимаю, что они там сделали. Выгрузка неактивных вкладок из памяти существует уже лет 7.
https://developer.chrome.com/blog/tab-discarding/Улучшенная реализация есть у Яндекса с 18го года
https://browser.yandex.ru/blog/pochemu-brauzery-perezagruzha...Даже в MS Edge родили свой вариант в 20ом году
https://techcommunity.microsoft.com/t5/articles/introducing-...
Пусть бы сразу с ядром напрямую через модуль общается и берёт оттуда данные о состоянии системы, к чему это кокетство? ВебКит давно пора в ядро встроить, заодно радикально решив проблему зоопарка несовместимых между собой UI-фреймворков. И чтобы два раза не вставать, поменять незаметно имплементации на Common Lisp, получить реинкарнацию Symbolics 3650, и начать уже писать софт для решения прикладных проблем, а очередной генератор PS1.
* а не очередной…
Chromium вполне активно общается с ядром системы по поводу вопросов в т.ч. памяти
Они это в своем православном андроиде запилили. WebView называется.
Что за манеры у товарищей из корпорации зла... казалось бы, создай достойную замену JPEG-X и с чистой совестью и грязными помыслами - удаляй его поддержку. Никто и не пикнет!
NIH
Уже давно создали, называется jpeg2000
Называется WebP. Неважно, что он отвратительный, главное что изобретен в гугле.
JavaScript самый главный враг
Хочешь назад на абобо-плешь? Или на дзява-апплеты?
Например я не хочу ни того, ни другого. Потому жлобоскрипт для меня - друх.
Но для себя ты конечно же можешь юзоть пельмень и жоперу-12 с этими обеими ns-plugins.
А вот не надо было выгонять разработчика JS из мозилы. На то время мозилой руководила пара *-директоров. (* - запрещённое на этом сайте слово).
>JavaScript самый главный врагУверен? У меня вкладка about:blank в хроме занимает 17,5 Мб и этот объём постепенно растёт.
Пчёлы против мёда?
> В Chrome предложены режимы экономии памяти и энергии.Здесь я подумал, что Гугл убирают JavaScript, CSS, JSON, XML и прочее перераздутое гламурное фyфло, переходят на бинарный формат данных и снижение свистопрделок, чтобы действительно экономить энергию и оборудование. И тут..
При переходе к вытесненным из памяти неактивным вкладкам, их содержимое будет автоматически загружено.
Вот д-лы! Это же наоборот увеличит износ дисков и потребление энергии! А ещё добавит нервяков юзерам, ожидающим по пол часа "подвисшие" вкладки.
> их содержимое будет автоматически загружено
> ... загружено ...Юзеры генерят недостаточно трафика? Не беда! Сейчас всё исправим!
> Это же наоборот увеличит износ дисков и потребление энергии! А ещё добавит нервяков юзерам, ожидающим по пол часа "подвисшие" вкладки.Пользователи некрожелеза с MFM-дисками и модемами на 9600/NONE недовольны!
>> Это же наоборот увеличит износ дисков и потребление энергии! А ещё добавит нервяков юзерам, ожидающим по пол часа "подвисшие" вкладки.
>Пользователи некрожелеза с MFM-дисками и модемами на 9600/NONE недовольны!У меня недавно смартфон умер, ошибка записи eMMC. А ведь ресурс flash-памяти становится лишь ниже с годами, прогресс. Видимо после этого "улучшения" смартфоны будут умирать к концу гарантийного срока.
Сначала дестки лет лепили из системы просмотра гипертекста суррогатную платформу для запуска приложений, а теперь вдруг озаботились что она отжирает кучу энергии? Очень любопытно!
> Сначала дестки лет лепили из системы просмотра гипертекста суррогатную платформу для запуска
> приложений, а теперь вдруг озаботились что она отжирает кучу энергии? Очень
> любопытно!Не озаботились, а сделали вид, посмотрим что за дичь выйдет по итогу.
Просто выбросить все рекламное гамно и из хромиума в том числе и отключаемые модули ДЕЙСТВИТЕЛЬНО отключать - вот тогда и памяти поболе будет.
Достаточно взять стандарт html 5 и ... оставить в хроме только то, что входит в стандарт.
Как внушить Хрому, что заряд всегда 19%?
Зачем экономить севший аккумулятор, можно сразу работать дольше.
Наконец! Пусть экофашисты скребут мозг разрабам - толку больше будет. А то - пихто-михтон и жабийскрип...
На компутере с Intel(R) Celeron(R) D CPU 3.33GHz и 2 гигами оперативы упирается быстрее в проц чем в память на современных сайтах. (хромиум, деб-11, 32 бита)
ктонить предложите оптимизировать код хрома и сделать его понастоящему быстрым