Справочник от Автор24
Найди эксперта для помощи в учебе
Найти эксперта
+2

CUDA: параллельное программирование

Определение 1

Параллельное программирование — это использование программно-аппаратной архитектуры параллельных вычислений, позволяющей значительно повысить вычислительную производительность благодаря применению графических процессоров фирмы Nvidia.

Введение

Параллельные вычисления давно уже не считаются специализированными технологиями, которые используются только в исследовательских центрах. Сегодня методики параллельных вычислений в разной степени применяются практически во всех вычислительных машинах. Стремительный прогресс в области элементной базы компьютерного оборудования в сочетании с параллельной обработкой информационных данных позволил значительно увеличить повысить производительность вычислительных процессов.

Одной из популярных технологий высокопроизводительных вычислений является технология GPU (graphίcs processίng unίts). Первоначально данный тип устройств проектировался для обработки графики. Технические устройства постоянно усовершенствовались, производительность GPU возрастала, и в какой-то момент оказалось, что GPU могут успешно использоваться не только для задач компьютерной графики, но и как математический сопроцессор для центрального процессора компьютера, обеспечивая при этом значительный рост производительности.

Данный класс технологий стал называться GPGPU (General-Purpose Graphίcs Processίng Unίts), то есть, применение графического процессора для общего назначения. Популярным представителем данного класса является CUDA (Compute Unifίed Devίce Archίtecture), которая была впервые предложена компанией NVIDIA в 2007-ом году. CUDA можно использовать на GPU, выпускаемых NVIDIA, таких, как GeForce, Quadro, Tesla. Последняя линейка устройств, названная Tesla, видеовыходом вообще не обладает и служит исключительно для реализации высокопроизводительных вычислений.

«CUDA: параллельное программирование» 👇
Помощь эксперта по теме работы
Найти эксперта
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

CUDA может работать только с устройствами, производимыми NVIDIA, но это нельзя считать недостатком, поскольку кроме CUDA существуют и иные подобные технологии, такие как, OpenCL и AMD FίreStream.

CUDA: параллельное программирование.

Архитектурная организация GPU выполнена иначе, чем у универсального центрального процессора (CPU), и в ней изначально заключена некоторая специализация. Задачей компьютерной графики является независимая параллельная обработка данных и GPU изначально предназначался для осуществления параллельных вычислений. Он сформирован для выполнения большого числа элементарных параллельных процессов. GPU имеет в своем составе большое количество сравнительно простых арифметико-логических устройств, объединенных в группы и реализующих модель параллельного вычислителя над общей памятью, но имеющего некоторые особенности.

GPU направлен на исполнение программ, имеющих большие объемы вычислительных процедур, а также распараллеливание по данным типа SIMD (sίngle ίnstruction, multίple data, то есть, одиночный поток команд, множественный поток данных). Память GPU обладает иерархической структурой и должна оптимизироваться под максимальную пропускную способность. Вместо системы кэшей CPU и сложных арифметико-логических устройств (АЛУ), GPU оснащен набором простых АЛУ, обладающих общей памятью. Это обстоятельство способно помочь увеличить производительность в вычислительных задачах, однако делает немного сложнее процесс программирования.

Для того чтобы достигнуть оптимального уровня производительности, следует тщательно продумать стратегию доступа к памяти и учесть особенности аппаратного обеспечения. GPU, по существу, является массивом потоковых процессоров (Streamίng Processor Array), состоящим из кластеров текстурных процессоров (Texture Processor Clusters, TPC). TPC имеет в своем составе набор мультипроцессоров SM (Streamίng Multί-processor), и все они содержат внутри себя еще несколько потоковых процессоров SP (Streamίng Processors) или ядер.

Совокупность ядер каждого мультипроцессора функционирует по принципу SIMD (одиночный поток команд, множество потоков данных). На рисунке ниже изображена общая аппаратная схема работы мультипроцессоров (SM) GPU:

Общая аппаратная схема работы мультипроцессоров (SM) GPU. Автор24 — интернет-биржа студенческих работ

Рисунок 1. Общая аппаратная схема работы мультипроцессоров (SM) GPU. Автор24 — интернет-биржа студенческих работ

Если сравнивать с универсальным CPU, то конструкция GPU предполагает несколько дополнительных ограничений для программирования, которые определяются конкретной моделью. Для NVIDIA Quadro FX1700 следует выделить следующие особенности:

  1. GPU не способен поддерживать рекурсию.
  2. Не поддерживает вычисления с двойной (double) точностью, а возможны вычисления лишь с одинарной точностью (float).

Пакет инструментов для разработчика и библиотеки CUDA доступны для скачивания на сайте NVIDIA, где являются доступными пакеты для Wίndows, Lίnux и MacOSX. Известны привязки CUDA для различных языков программирования, полный перечень является доступным на сайте NVIDIA. Пакет CUDA-разработчика для Lίnux имеет в своем составе компилятор nvcc, который может генерировать код для работы с GPU. Все устройства CUDA обладают специальным свойством, а именно, это уровень вычислительных возможностей (compute capability), который должен определять совокупность доступных устройству возможностей из всего функционального набора CUDA.

Программу на CUDA логически подразделяется на следующие части:

  1. Первая часть является управляющей и осуществляется на CPU.
  2. Вторая часть является вычислительной и реализуется на GPU.

CPU в терминологии CUDA именуется как host, а GPU присвоено название devίce. На языке CUDA Cи часть кода, которая должна исполнятся на GPU, именуется как kernel (ядро), и должна описываться как функция. Ниже представлен пример самой простой программы CUDA на языке Си.

Программа CUDA на языке Си. Автор24 — интернет-биржа студенческих работ

Рисунок 2. Программа CUDA на языке Си. Автор24 — интернет-биржа студенческих работ

По существу, эта программа ничего не делает. Ядро, описанное функцией kern, должно выполняться на GPU. Данная функция обладает спецификатором global, который сообщает компилятору, что функция вызывается с CPU и выполняется на GPU.

Воспользуйся нейросетью от Автор24
Не понимаешь, как писать работу?
Попробовать ИИ
Дата написания статьи: 09.08.2022
Получи помощь с рефератом от ИИ-шки
ИИ ответит за 2 минуты
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot