Artwork

内容由Wolfgang Gassler, Andy Grunwald, Wolfgang Gassler, and Andy Grunwald提供。所有播客内容(包括剧集、图形和播客描述)均由 Wolfgang Gassler, Andy Grunwald, Wolfgang Gassler, and Andy Grunwald 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal
Player FM -播客应用
使用Player FM应用程序离线!

#184 GPU Programmierung - von CUDA bis OpenMP mit Peter Thoman

1:10:21
 
分享
 

Manage episode 468381472 series 3432292
内容由Wolfgang Gassler, Andy Grunwald, Wolfgang Gassler, and Andy Grunwald提供。所有播客内容(包括剧集、图形和播客描述)均由 Wolfgang Gassler, Andy Grunwald, Wolfgang Gassler, and Andy Grunwald 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

GPU-Programmierung: Andere Chips und eine andere Art zu programmieren

In der heutigen Zeit dreht sich fast alles in der IT um AI. Und damit auch oft um den sich positiv entwickelnden Aktienkurs von Nvidia. Warum Nvidia? Als Hersteller von Grafikkarten bzw. Grafikchips (kurz GPUs) profitieren sie deutlich von den hohen Nachfragen nach dieser Art von Chips. Das Ganze hat die Frage aufgeworfen: Inwieweit ist die Programmierung auf bzw. für eine GPU anders als bei einer klassischen CPU?

In dieser Episode behandeln wir dieses Thema: Paralleles Programmieren auf der GPU.

Wir bröseln das Buzzword-Bingo auf und schauen uns an, was der Unterschied zu verteiltem vs. parallelem Rechnen ist, was HPC und CUDA eigentlich ist, ob bzw. wie man auf Grafikkarten ohne Frameworks programmieren kann, welche algorithmischen Use Cases neben AI und Transformer-Modelle existieren, wie man einen Algorithmus für die GPU programmiert und was man alles vermeiden sollte, sprechen über Speicherzugriffsmuster und warum Matrizen-Multiplikationen so gut auf GPUs funktionieren aber auch was Performance-Portabilität bedeutet und ob es Probleme mit der Heterogenität von Grafikkarten und Chips gibt.

Und das alles mit Dr. Prof. Peter Thoman.

Bonus: Wie besucht man möglichst effizient alle Städte in Deutschland? Das Problem des Handlungsreisenden.

Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partners

Das schnelle Feedback zur Episode:

👍 (top) 👎 (geht so)

Feedback

Links

Sprungmarken

(00:00:00) Intro

(00:01:28) Paralleles Programmieren auf der GPU mit Peter Thoman

(00:07:26) Was ist was? Verteiltes vs. paralleles Rechnen, HPC, CUDA und mehr

(00:08:34) Info/Werbung

(00:09:34) Was ist was? Verteiltes vs. paralleles Rechnen, HPC, CUDA und mehr

(00:22:34) Wie hat die Berechnung auf der GPU begonnen?

(00:33:23) Use-Cases für die GPU

(00:45:58) Matrizenmultiplikation und Neuronale Netze auf der GPU

(00:55:11) Heterogenität der Grafikkarten und Chips

(01:00:10) Dein Einstieg in die GPU-Programmierung

Hosts

Feedback

  continue reading

243集单集

Artwork
icon分享
 
Manage episode 468381472 series 3432292
内容由Wolfgang Gassler, Andy Grunwald, Wolfgang Gassler, and Andy Grunwald提供。所有播客内容(包括剧集、图形和播客描述)均由 Wolfgang Gassler, Andy Grunwald, Wolfgang Gassler, and Andy Grunwald 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

GPU-Programmierung: Andere Chips und eine andere Art zu programmieren

In der heutigen Zeit dreht sich fast alles in der IT um AI. Und damit auch oft um den sich positiv entwickelnden Aktienkurs von Nvidia. Warum Nvidia? Als Hersteller von Grafikkarten bzw. Grafikchips (kurz GPUs) profitieren sie deutlich von den hohen Nachfragen nach dieser Art von Chips. Das Ganze hat die Frage aufgeworfen: Inwieweit ist die Programmierung auf bzw. für eine GPU anders als bei einer klassischen CPU?

In dieser Episode behandeln wir dieses Thema: Paralleles Programmieren auf der GPU.

Wir bröseln das Buzzword-Bingo auf und schauen uns an, was der Unterschied zu verteiltem vs. parallelem Rechnen ist, was HPC und CUDA eigentlich ist, ob bzw. wie man auf Grafikkarten ohne Frameworks programmieren kann, welche algorithmischen Use Cases neben AI und Transformer-Modelle existieren, wie man einen Algorithmus für die GPU programmiert und was man alles vermeiden sollte, sprechen über Speicherzugriffsmuster und warum Matrizen-Multiplikationen so gut auf GPUs funktionieren aber auch was Performance-Portabilität bedeutet und ob es Probleme mit der Heterogenität von Grafikkarten und Chips gibt.

Und das alles mit Dr. Prof. Peter Thoman.

Bonus: Wie besucht man möglichst effizient alle Städte in Deutschland? Das Problem des Handlungsreisenden.

Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partners

Das schnelle Feedback zur Episode:

👍 (top) 👎 (geht so)

Feedback

Links

Sprungmarken

(00:00:00) Intro

(00:01:28) Paralleles Programmieren auf der GPU mit Peter Thoman

(00:07:26) Was ist was? Verteiltes vs. paralleles Rechnen, HPC, CUDA und mehr

(00:08:34) Info/Werbung

(00:09:34) Was ist was? Verteiltes vs. paralleles Rechnen, HPC, CUDA und mehr

(00:22:34) Wie hat die Berechnung auf der GPU begonnen?

(00:33:23) Use-Cases für die GPU

(00:45:58) Matrizenmultiplikation und Neuronale Netze auf der GPU

(00:55:11) Heterogenität der Grafikkarten und Chips

(01:00:10) Dein Einstieg in die GPU-Programmierung

Hosts

Feedback

  continue reading

243集单集

所有剧集

×
 
Loading …

欢迎使用Player FM

Player FM正在网上搜索高质量的播客,以便您现在享受。它是最好的播客应用程序,适用于安卓、iPhone和网络。注册以跨设备同步订阅。

 

快速参考指南

版权2025 | 隐私政策 | 服务条款 | | 版权
边探索边听这个节目
播放