Відмінності між версіями «Рівночасні обчислення»

перепрошую, як щось пошкодив - декілька раз синхронізував, але не встигав за Вами
(перепрошую, як щось пошкодив - декілька раз синхронізував, але не встигав за Вами)
{{парадигми програмування}}
 
'''Конкурентні обчислення''' ({{lang-en|Concurrent computing}}) - це форма [[обчислення|обчислень]], в якій кілька обчислень відбуваються в часових відрізках, якіщо перетинаються - [[Паралелізм (інформатика)|паралельно]]'', а не послідовноє послідовними (так, що кожне обчислення мусить закінчитись перед тим, як почнеться інше). <!-- This is a property of a system—this may be an individual [[computer program|program]], a [[computer]], or a [[computer network|network]]—and there is a separate execution point or "thread of control" for each computation ("process"). A ''concurrent system'' is one where a computation can advance without waiting for all other computations to complete.<ref>''Operating System Concepts'' 9th edition, Abraham Silberschatz. "Chapter 4: Threads"</ref>
<!-- This is a property of a system—this may be an individual [[computer program|program]], a [[computer]], or a [[computer network|network]]—and there is a separate execution point or "thread of control" for each computation ("process"). A ''concurrent system'' is one where a computation can advance without waiting for all other computations to complete.<ref>''Operating System Concepts'' 9th edition, Abraham Silberschatz. "Chapter 4: Threads"</ref>
 
As a [[programming paradigm]], concurrent computing is a form of [[modular programming]], namely [[decomposition (computer science)|factoring]] an overall computation into subcomputations that may be executed concurrently. Pioneers in the field of concurrent computing include [[Edsger Dijkstra]], [[Per Brinch Hansen]], and [[C.A.R. Hoare]]. -->
{{See also|Паралельні обчислення}}
 
Поняття конкуретнихконкурентних очисленьобчислень часто плутають з подібним, але дещо відмінним поняттям [[Паралельні обчислення|паралельних обчислень]],<ref name=waza>{{нп|Роб[[Rob ПайкPike|Pike, Rob|en|Rob Pike}}]] (2012-01-11). "Concurrency is not Parallelism". ''Waza conference'', 11 January 2012. Retrieved from http://talks.golang.org/2012/waza.slide (slides) and http://vimeo.com/49718712 (video).</ref><ref>{{cite web
|url=https://wiki.haskell.org/Parallelism_vs._Concurrency
|title=Parallelism vs. Concurrency
|work=Haskell Wiki
}}</ref>, хоча обидва описуються як «паралельні процеси що виконуються ''протягом спільних часових відрізків''». В паралельних обчисленнях декілька обчислень існують і відбуваються одночасно в кожну мить фізичного часу ([[такт процесора]]), наприклад на різних [[CPU|процесорах]] багатопроцесорної машини, їх метою є зменшення часу виконання обчислень.
}}</ref> хоча обидва описуються як "паралельні процеси що виконуються ''протягом спільних часових відрізків''". В паралельних обчисленнях виконання відбувається в ту ж саму мить фізичного часу, наприклад на різних [[CPU|процесорах]] багатопроцесорної машини, і метою є зменшення часу виконання обчислень. Паралельні обчислення неможливі на одному одноядерному процесорі, так як в кожен момент часу (такт процесора) може відбуватись лише одне обчислення.{{efn|Це не враховує паралелізм що може реалізовуватись ядром процесора, такий як [[конвеєр команд]] чи [[Векторний процесор|векторні інструкції]]. Одноядерний, однопроцесорний ''комп'ютер'' може мати здатність до деякого паралелізму, наприклад при використанні [[Співпроцесор|співпроцесора]] але сам процесор такої здатності не має.}} А конкурентні обчислення, складаються з процесів час життя яких перетинається, але виконання не відбувається в той самий момент часу. Метою такого програмування є моделювання процесів реального світу які відбуваються конкурентно, наприклад таких як одночасний доступ кількох клієнтів до сервера. Побудова програмних систем як таких що складаються з багатьох комунікуючих частин що працюють конкурентно може бути корисною для зменшення складності незалежно від того чи частини можуть виконуватись паралельно.<ref>{{cite book |first=Fred B. |last=Schneider |title=On Concurrent Programming |publisher=Springer |isbn=9780387949420}}</ref>{{rp|1}}
 
В конкурентних обчисленнях декілька обчислень існують одночасно (як процеси або потоки виконання), але в кожну мить фізичного часу відбувається лише одне обчислення{{efn|Це не враховує паралелізм що може реалізовуватись ядром процесора, такий як [[конвеєр команд]] чи [[Векторний процесор|векторні інструкції]]. Одноядерний, однопроцесорний ''комп'ютер'' може мати здатність до деякого паралелізму, наприклад при використанні [[Співпроцесор|співпроцесора]] але сам процесор такої здатності не має.}}. Паралельні обчислення неможливі на одному одноядерному процесорі, оскільки в кожен момент часу може відбуватись лише одне обчислення. Як наслідок, аспекти синхронізації паралельних обчислень визначаються особливостями апаратної платформи, а конкурентних — програмної.
 
<!--{{efn|This is discounting parallelism internal to a processor core, such as pipelining or vectorized instructions. A one-core, one-processor ''machine'' may be capable of some parallelism, such as with a [[coprocessor]], but the processor alone is not.}} By contrast, concurrent computing consists of process ''lifetimes'' overlapping, but execution need not happen at the same instant. The goal here is to model processes in the outside world that happen concurrently, such as multiple clients accessing a server at the same time. Structuring software systems as composed of multiple concurrent, communicating parts can be useful for tackling complexity, regardless of whether the parts can be executed in parallel.<ref>{{cite book |first=Fred B. |last=Schneider |title=On Concurrent Programming |publisher=Springer |isbn=9780387949420}}</ref>{{rp|1}}
 
{{section-stub}}
<!--
For example, concurrent processes can be executed on one core by interleaving the execution steps of each process via [[time-sharing]] slices: only one process runs at a time, and if it does not complete during its time slice, it is ''paused'', another process begins or resumes, and then later the original process is resumed. In this way, multiple processes are part-way through execution at a single instant, but only one process is being executed at that instant.{{citation needed|date=December 2016}}
 
 
-->
== Механізми синхронізації ==
Поширеними, але не єдиними механізмами синхронізації конкурентних обчислень є [[Сигнал (операційні системи)|сигнали]], [[Семафор (програмування)|семафори]] та [[Черга повідомлень|черги повідомлень]].
 
== Типові задачі ==
== Реалізація ==
Метою застосування конкурентних обчислень є моделювання процесів реального світу, які відбуваються конкурентно, наприклад таких, як одночасний доступ кількох клієнтів до сервера. Побудова програмних систем, що складаються з багатьох комунікуючих частин, що працюють конкурентно, може бути корисною для зменшення складності таких систем незалежно від того, чи можуть виконуватись їх частини паралельно<ref>{{cite book |first=Fred B. |last=Schneider |title=On Concurrent Programming |publisher=Springer |isbn=9780387949420}}</ref>{{rp|1}}.
{{section-stub}}
 
Типовою задачею конкурентних обчислень є реалізація механізмів планування процесів в багатозадачних системах.
=== Механізми взаємодії і комунікації ===
{{section-stub}}
 
== Інструменти ==
== Мови що підтримують конкурентне програмування ==
Інструменти, що дозволяють здійснювати конкурентні обчислення, можуть входити до складу окремих мов програмування (з властивостями паралелізму), або надаватись через бібліотеки, або бути реалізовані на системному рівні.
{{section-stub}}
 
== ПриміткиЗноски ==
{{Notelist}}
 
== Примітки ==
 
{{reflist}}
== Зноски ==
<references />
 
[[Категорія:Технології операційних систем]]