作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在CUDA的架构中,GPU可视为一个计算设备,是主机或者CPU的协处理器,用于处理高度并行的计算。GPU(或者称为“设备,device”)均具备自己的存储器(device memory,设备内存),可以并行地运行许多线程。在CUDA程序中,并行计算的部分可以被分离到一个被称为kernel(内核)的函数。
推荐文章
细粒度并行计算编程模型研究
细粒度并行计算
图形处理器
图形处理器的通用计算
Cell
统一计算设备架构
网络处理器编程模型研究
网络处理器
编程模型
计算模型
微组件
高层描述
运行时系统
面向任务的TBB多核集群混合并行编程模型
多核集群
MPI
TBB
面向任务
混合编程
图形化编程对象模型及运行算法设计
图形化编程
面向对象
对象模型
消息驱动
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 UUDA编程模型
来源期刊 程序员 学科 工学
关键词 编程模型 计算设备 DEVICE MEMORY KERNEL 并行计算 协处理器 GPU
年,卷(期) 2008,(5) 所属期刊栏目
研究方向 页码范围 84-85
页数 2页 分类号 TP311.1
字数 语种
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2008(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
编程模型
计算设备
DEVICE
MEMORY
KERNEL
并行计算
协处理器
GPU
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
程序员
月刊
1672-3252
11-5038/G2
16开
北京市朝阳区广顺北大街33号院1号楼福码
2-665
2000
chi
出版文献量(篇)
10184
总下载数(次)
35
总被引数(次)
6420
论文1v1指导