Энтони Уильямс - Параллельное программирование на С++ в действии. Практика разработки многопоточных программ
- Название:Параллельное программирование на С++ в действии. Практика разработки многопоточных программ
- Автор:
- Жанр:
- Издательство:ДМК Пресс
- Год:2012
- Город:Москва
- ISBN:978-5-94074-448-1
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Энтони Уильямс - Параллельное программирование на С++ в действии. Практика разработки многопоточных программ краткое содержание
Книга «Параллельное программирование на С++ в действии» не предполагает предварительных знаний в этой области. Вдумчиво читая ее, вы научитесь писать надежные и элегантные многопоточные программы на С++11. Вы узнаете о том, что такое потоковая модель памяти, и о том, какие средства поддержки многопоточности, в том числе запуска и синхронизации потоков, имеются в стандартной библиотеке. Попутно вы познакомитесь с различными нетривиальными проблемами программирования в условиях параллелизма.
Параллельное программирование на С++ в действии. Практика разработки многопоточных программ - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
if (!ptr) {
return std::shared_ptr();
}
if (head.compare_exchange_strong(old_head, ptr->next,
std::memory_order_relaxed)) {
std::shared_ptr res;
res.swap(ptr->data);
int const count_increase = old_head.external_count — 2;
if (ptr->internal_count.fetch_add(count_increase,
std::memory_order_release) == -count_increase) {
delete ptr;
}
return res;
}
else if (ptr->internal_count.fetch_add(-1,
std::memory_order_relaxed) == 1) {
ptr->internal_count.load(std::memory_order_acquire);
delete ptr;
}
}
}
};
Мы немало потрудились, но наконец-то дошли до конца, и стек теперь стал куда лучше. За счет тщательно продуманного применения ослабленных операций нам удалось повысить производительность, не жертвуя корректностью. Как видите, реализация pop()
теперь насчитывает 37 строк вместо 8 в эквивалентной реализации pop()
для стека с блокировками (листинг 7.1) и 7 строк для простого свободного от блокировок стека без управления памятью (листинг 7.2). При рассмотрении свободной от блокировок очереди мы встретимся с аналогичной ситуацией: сложность кода в значительной степени обусловлена именно управлением памятью.
7.2.6. Потокобезопасная очередь без блокировок
Очередь отличается от стека прежде всего тем, что операции push()
и pop()
обращаются к разным частям структуры данных, тогда как в стеке та и другая работают с головным узлом списка. Следовательно, и проблемы синхронизации тоже другие. Требуется сделать так, чтобы изменения, произведенные на одном конце, были видны при доступе с другого конца. Однако структура функции try_pop()
в листинге 6.6 не так уж сильно отличается от структуры pop()
в простом свободном от блокировок стеке в листинге 7.2, поэтому можно с достаточными основаниями предположить, что и весь свободный от блокировок код будет схожим. Посмотрим, так ли это.
Если взять листинг 6.6 за основу, то нам понадобятся два указателя на node
: один для головы списка ( head
), второй — для хвоста ( tail
). Поскольку мы собираемся обращаться к ним из нескольких потоков, то надо бы сделать эти указатели атомарными и расстаться с соответствующими мьютексами. Начнём с этого небольшого изменения и посмотрим, куда оно нас приведет. Результат показан в листинге ниже.
Листинг 7.13.Свободная от блокировок очередь с одним производителем и одним потребителем
template
class lock_free_queue {
private:
struct node {
std::shared_ptr data;
node* next;
node():
next(nullptr) {}
};
std::atomic head;
std::atomic tail;
node* pop_head() {
node* const old_head = head.load();
if (old_head == tail.load()) {←
(1)
return nullptr;
}
head.store(old_head->next);
return old_head;
}
public:
lock_free_queue():
head(new node), tail(head.load()) {}
lock_free_queue(const lock_free_queue& other) = delete;
lock_free_queue& operator=(
const lock_free_queue& other) = delete;
~lock_free_queue() {
while(node* const old_head = head.load()) {
head.store(old_head->next);
delete old_head;
}
}
std::shared_ptr pop() {
node* old_head = pop_head();
if (!old_head) {
return std::shared_ptr();
}
std::shared_ptr const res(old_head->data);←
(2)
delete old_head;
return res;
}
void push(T new_value) {
std::shared_ptr new_data(std::make_shared(new_value));
node* p = new node; ←
(3)
node* const old_tail = tail.load(); ←
(4)
old_tail->data.swap(new_data); ←
(5)
old_tail->next = p; ←
(6)
tail.store(p); ←
(7)
}
};
На первый взгляд, неплохо, и если в каждый момент времени существует только один поток, вызывающий push()
, и только один поток, вызывающий pop()
, то вообще всё прекрасно. Важно отметить, что в этом случае существует отношение происходит-раньше между push()
и pop()
, благодаря которому извлечение данных безопасно. Сохранение tail
(7)синхронизируется-с загрузкой tail
(1), сохранение указателя на data
в предыдущем узле (5)расположено перед сохранением tail
, а загрузка tail
расположена перед загрузкой указателя на data
(2), поэтому сохранение data
происходит раньше его загрузки, и всё замечательно. Таким образом, мы получили корректно обслуживаемую очередь с одним производителем и одним потребителем .
Проблемы начинаются, когда несколько потоков вызывают push()
или pop()
одновременно. Сначала рассмотрим push()
. Если два потока одновременно вызывают push()
, то оба выделяют память для нового фиктивного узла (3), оба читают одно и то же значение tail
(4)и, следовательно, оба изменяют данные-члены data
и next
одного и того же узла (5), (6). А это уже гонка за данными!
Аналогичные проблемы возникают в pop_head()
. Если два потока вызывают эту функцию одновременно, то оба читают одно и то же значение head
, и оба перезаписывают старое значение одним и тем же указателем next
. Оба потока теперь думают, что получили один и тот же узел, — прямой путь к катастрофе. Мы должны не только сделать так, чтобы лишь один поток извлекал данный элемент, но и позаботиться о том, чтобы другие потоки могли безопасно обращаться к члену next
узла, который прочитали из head
. Это точно та же проблема, с которой мы сталкивались при написании pop()
для свободного от блокировок стека, поэтому и любое из предложенных тогда решений можно применить здесь.
Итак, проблему pop()
можно считать решенной, но как быть с push()
? Здесь трудность заключается в том, что для получения требуемого отношения происходит-раньше между push()
и pop()
мы должны заполнить поля фиктивного узла до обновления tail
. Но это означает, что одновременные вызовы push()
конкурируют за те же самые данные, так как был прочитал один и тот же указатель tail
.
push()
Один из способов — добавить фиктивный узел между реальными. Тогда единственной частью текущего узла tail
, нуждающейся в обновлении, будет указатель next
, который, следовательно, можно было бы сделать атомарным. Если потоку удалось записать в next
указатель на свой новый узел вместо nullptr
, то он успешно добавил узел; в противном случае ему придется начать сначала и снова прочитать tail
. Это потребует небольшого изменения в pop()
— нужно будет игнорировать узлы с нулевым указателем на данные и возвращаться в начало цикла. Недостаток этого решения в том, что при каждом вызове pop()
придется как правило исключать из списка два узла и производить в два раза больше операций выделения памяти.
Интервал:
Закладка: