Цитата Сообщение от MUTbKA
Этак ты увеличиваешь только суммарное кол-во "попугаев", а не реальную производительность. Большому количеству взаимодействующих процессоров нужны адекватные каналы связи между собой, с памятью, периферией и т.д. Конечно, есть задачи, которые прекрасно масштабируются на большое кол-во процов при достаточно слабых каналах связи между ними (это в основном математические эксперименты, например, в области динамики жидкостей и газов), но ИХ ОЧЕНЬ МАЛО. В частности, расчет 3D графики (по алгоритмам, используемым нынче в играх) к такому типу задач не относится никоим боком....
Ну конечно, во многом тут не с чем поспорить, но...
На самом деле (Моё ИМХО!) проблема применимости распределённых вычислений.... как бы это помягче... искусственная чтоли.
Весь наш мир состоит из огромного числа "процессов", как правило, между собой слабо связанных. Никто же не будет спорить с тем, что , в основном (если не всегда) компьютер используется для обсчёта мат. модели реальности? И как это происходит? Мы берём все эти процессы, где возможно укрупняем (для того, чтобы получить меньшее количество процессов, но более сложных) потом ещё укрупняем.... и так до тех пор, пока не получим ОДИН очень сложный процесс, для которого уже маловато вычислительных ресурсов. Вот тогда начинаем задумываться о том, как разбить этот процесс для обработки на нескольких процессорах, и выясняем, что те "подпроцессы", которые у нас получились очень тесно связаны между собой и требуют обмена огромным количеством информации между собой. Т.е., в общем случае, получающаяся схема (алгоритм) для распределенных вычислений сложнее, чем исходный (тот самый один процесс). И после этого мы заявляем, что то явление, которое мы пытались описать не поддаётся (или плохо поддаётся) распределённому обсчёту.
Если бы Бог, создавая этот мир, шёл по такому пути.... Я не думаю, что ему бы удалось создать что-нибудь сложнее одной элементарной частицы...

На примере ИЛ2:
На карте 10 самолётов, 100 единиц наземки, 300 облаков, миллион листочков на деревьях( ), 10 миллионов волн на воде( ), 1000 единиц снарядов (которые выпустили те самолёты и наземка)...
И ВСЁ ЭТО мы пытаемся "пропихнуть" через один несчастный проц, причём не только то, что мы сейчас "видим", но и то, что происходит на другом конце карты (а вдруг через секунду нам захочется посмотреть что происходит там?)....
А если у нас есть 300 процессоров? Неужели же мы будем также тупо гонять ЭТО ВСЁ через ВСЕ 300 процев?
Онлайн в таком случае был бы вообще невозможен, просто НЕМЫСЛИМ (особенно на модеме).
Решена проблема? решена!

Или пример ещё проще:
Из точки А в точку Б нужно переместить 5 литров воды и 5 литров спирта.

Как будет быстрее?
1.Одним ведром за 2 раза?
2.Одним ведром за раз?(смешав в точке А, а потом разделив в точке Б)
3.Двумя вёдрами за раз?(для каждой жидкости своё ведро)
4.Или двумя вёдрами за раз, смешав в т.А, а потом разделив в т.Б

Так вот, сегодня, таскаем одним ведром (вариант 2, чтобы добиться максимальной производительности )
При большинстве "распределённых" вычислений(так, как сейчас работают HT и многопроцессорные системы, требующие обмена огромным количеством данных между потоками) используется четвёртый вариант.
А до третьего пока не дошли, т.к. "жидкостей", как правило не 2 и не 3, а тысячи, а "вёдер" не хватает.