Files
2026-05-06 09:21:42 +07:00

209 lines
8.9 KiB
C++

#include <iostream>
#include <vector>
#include <iomanip>
#include <random>
#include <pthread.h>
#include <sys/time.h>
#include <unistd.h>
constexpr int NIL = -1; // Маркер конца списка (аналог nullptr для индексов)
// Структура узла списка, хранящегося в массиве
struct Node {
int value; // Значение элемента
int next; // Индекс следующего элемента в массиве pool
};
// Результат работы функции сортировки
struct SortResult {
int head; // Индекс головы отсортированного списка
long long comparisons; // Счетчик выполненных сравнений
};
// Аргументы для передачи в новый поток
struct Args {
Node* pool; // Указатель на массив всех узлов
int head; // Голова подсписка для сортировки
int depth; // Текущая глубина рекурсии
int size; // Количество элементов в подсписке
int threshold; // Порог, ниже которого новые потоки не создаются
SortResult* res_out; // Куда записать результат работы потока
};
// Глобальные переменные для управления потоками
int active_threads = 0; // Текущее количество работающих потоков
int max_threads = 4; // Максимально допустимое количество потоков
pthread_mutex_t counter_mutex = PTHREAD_MUTEX_INITIALIZER; // Мьютекс для счетчика потоков
pthread_mutex_t log_mutex = PTHREAD_MUTEX_INITIALIZER; // Мьютекс для синхронизации вывода
bool enable_logging = false; // Флаг включения логирования
// Логирование событий для анализа производительности
void log_event(const std::string& type, int head, int depth) {
if (!enable_logging) return;
pthread_mutex_lock(&log_mutex); // Блокируем вывод, чтобы строки не перемешались
timeval tv{};
gettimeofday(&tv, nullptr);
double current_time = tv.tv_sec + tv.tv_usec * 1e-6;
std::cout << type << " TID=" << pthread_self() // ID текущего потока
<< " depth=" << depth
<< " range=[" << head << "," << head << "]"
<< " time=" << std::fixed << std::setprecision(6) << current_time << std::endl;
pthread_mutex_unlock(&log_mutex);
}
// Разделение списка на две равные части (алгоритм "черепахи и зайца")
void split_list(Node* pool, int head, int& left, int& right) {
if (head == NIL || pool[head].next == NIL) {
left = head; right = NIL; return;
}
int slow = head, fast = pool[head].next;
while (fast != NIL) {
fast = pool[fast].next;
if (fast != NIL) {
slow = pool[slow].next;
fast = pool[fast].next;
}
}
left = head;
right = pool[slow].next;
pool[slow].next = NIL; // Разрываем список на две части
}
// Слияние двух отсортированных списков
SortResult merge_lists(Node* pool, int l, int r) {
long long comps = 0;
if (l == NIL) return {r, 0};
if (r == NIL) return {l, 0};
int res_head = NIL, tail = NIL;
// Вспомогательная лямбда для добавления элемента в результирующий список
auto append = [&](int idx) {
if (res_head == NIL) res_head = tail = idx;
else { pool[tail].next = idx; tail = idx; }
};
while (l != NIL && r != NIL) {
comps++;
if (pool[l].value <= pool[r].value) {
int n = pool[l].next; append(l); l = n;
} else {
int n = pool[r].next; append(r); r = n;
}
}
// Прикрепляем оставшиеся элементы
if (l != NIL) pool[tail].next = l;
if (r != NIL) pool[tail].next = r;
return {res_head, comps};
}
// Прототип функции для использования в thread_func
SortResult parallel_list_sort(Node* pool, int head, int depth, int size, int threshold);
// Функция-обертка для запуска в pthread
void* thread_func(void* arg) {
Args* a = (Args*)arg;
// Выполняем сортировку и записываем результат по указателю
*(a->res_out) = parallel_list_sort(a->pool, a->head, a->depth, a->size, a->threshold);
return nullptr;
}
// Основная рекурсивная функция параллельной сортировки
SortResult parallel_list_sort(Node* pool, int head, int depth, int size, int threshold) {
log_event("START", head, depth);
// Базовый случай рекурсии: список пуст или из одного элемента
if (head == NIL || pool[head].next == NIL) {
log_event("END", head, depth);
return {head, 0};
}
int left_p, right_p;
split_list(pool, head, left_p, right_p); // Разбиваем список
int new_size = size / 2;
pthread_t tid;
bool spawned = false; // Флаг: был ли создан новый поток
SortResult res_right = {NIL, 0};
// Решаем, нужно ли создавать новый поток
if (size > threshold) {
pthread_mutex_lock(&counter_mutex);
if (active_threads < max_threads) {
active_threads++;
spawned = true;
}
pthread_mutex_unlock(&counter_mutex);
}
if (spawned) {
// Создаем поток для правой части
Args* args = new Args{pool, right_p, depth + 1, new_size, threshold, &res_right};
pthread_create(&tid, nullptr, thread_func, args);
// Левую часть сортируем в текущем потоке
SortResult res_left = parallel_list_sort(pool, left_p, depth + 1, new_size, threshold);
// Дожидаемся завершения правого потока
pthread_join(tid, nullptr);
pthread_mutex_lock(&counter_mutex);
active_threads--; // Освобождаем место для новых потоков
pthread_mutex_unlock(&counter_mutex);
SortResult m = merge_lists(pool, res_left.head, res_right.head);
delete args; // Очищаем память, выделенную под аргументы
log_event("END", m.head, depth);
return {m.head, res_left.comparisons + res_right.comparisons + m.comparisons};
} else {
// Последовательная сортировка обеих частей в текущем потоке
SortResult res_left = parallel_list_sort(pool, left_p, depth + 1, new_size, threshold);
SortResult res_r_seq = parallel_list_sort(pool, right_p, depth + 1, new_size, threshold);
SortResult m = merge_lists(pool, res_left.head, res_r_seq.head);
log_event("END", m.head, depth);
return {m.head, res_left.comparisons + res_r_seq.comparisons + m.comparisons};
}
}
int main(int argc, char* argv[]) {
int n = 100000; // Размер списка по умолчанию
int threshold = 5000; // Порог распараллеливания по умолчанию
// Считывание параметров из командной строки
if (argc >= 2) n = std::atoi(argv[1]);
if (argc >= 3) max_threads = std::atoi(argv[2]);
if (argc >= 4) threshold = std::atoi(argv[3]);
// Включаем подробные логи только для небольших задач, чтобы не спамить в консоль
if (n < 5000) enable_logging = true;
// Инициализация пула узлов
std::vector<Node> pool(n);
std::mt19937 rng(1337); // Фиксированный seed для воспроизводимости
for (int i = 0; i < n; i++) {
pool[i].value = rng() % 100000;
pool[i].next = (i == n - 1) ? NIL : i + 1;
}
timeval t1, t2;
gettimeofday(&t1, nullptr); // Замер времени начала
// Запуск основной функции сортировки
SortResult final_res = parallel_list_sort(pool.data(), 0, 0, n, threshold);
gettimeofday(&t2, nullptr); // Замер времени окончания
// Расчет и вывод статистики
double elapsed = (t2.tv_sec - t1.tv_sec) + (t2.tv_usec - t1.tv_usec) * 1e-6;
std::cerr << "STAT: threads=" << max_threads
<< " size=" << n
<< " threshold=" << threshold
<< " time=" << elapsed << " sec" << std::endl;
return 0;
}