想要了解有哪些广告互动类?快来看看吧!

想要了解有哪些广告互动类?那么你来对地方了!本文将从四个方面详细介绍现今最流行的广告互动类形式,包括社交媒体广告、视频广告、游戏广告和互动贴片广告。

社交媒体广告

随着互联网的普及,社交媒体成为了广告主们推销产品和服务的首选方式之一。不少企业都会在社交媒体平台上发布广告,以增加品牌曝光率以及售卖产品。社交媒体广告通常以图片、文字、视频甚至是直播的形式出现,它们可以定向投放给特定目标受众,例如年龄、地理位置、性别、兴趣爱好等等。在投放广告的同时,社交媒体平台也会提供广告效果分析以及投放策略优化等服务,以帮助广告主最大化投放效益。

当然,社交媒体广告也有其短板。例如,随着用户对广告免疫性的提高以及平台的信息过载,社交媒体广告的点击率和转化率下降的问题越来越严重。针对这个问题,广告主需要选择恰当的平台、寻找更好的营销策略、甚至可以对广告素材进行A/B测试,以尽可能地提高广告的效果。

视频广告

视频广告是当前最受欢迎的广告形式之一,既可以在电视、电影和在线视频平台上播出,也可以作为短视频的插入广告。视频广告通常需要30秒到一分钟的时间来传达它们的信息,例如品牌形象、产品介绍、服务说明等等。视频广告的优点在于,它们可以通过视觉、听觉和情感等多种方式来吸引受众的注意力,从而提高广告的点击率和转化率。

当然,视频广告也有一些缺点。例如,视频广告通常需要高质量的制作团队来拍摄和制作,广告成本相对较高。此外,对于短视频平台而言,受众往往会在看到广告时选择跳过,这也加重了广告主和营销人员的难度。

游戏广告

游戏广告是比较新颖的广告形式。随着移动设备和游戏的普及,游戏广告也越来越受到广告主们的青睐。游戏广告通常以插屏广告、激励式广告或游戏商品道具广告的形式出现。这些广告形式通常可以通过收集用户数据或者轻松完成小任务等方式来吸引受众的注意力。

游戏广告的优点在于,它们可以让受众在玩游戏的同时接收到自己的广告信息,从而增加用户对品牌的认知度。此外,游戏广告通常有较高的转化率和用户留存率,有助于增加品牌的曝光率。

互动贴片广告

互动贴片广告是一种新颖的广告形式,它可以在视频播放时插入弹出窗口或透明图层,让受众进行互动。互动贴片广告的形式不限,可以是视频、图片、互动游戏等等。它们通常故事情节性强,具有良好的叙事能力,以吸引观众的注意力。

互动贴片广告的优点在于,它们可以在视频播放时直接吸引受众的注意力,从而增加受众对品牌的认知度和兴趣。此外,互动贴片广告通常可以带来更高的转化率,有助于促进受众的购买行为。

总结

现今广告形式多种多样,但是社交媒体广告、视频广告、游戏广告和互动贴片广告这几种广告形式最为流行。广告主可以在各个广告平台上投放上述广告形式,以增加品牌曝光率、提高广告的点击率和转化率。当然,广告主也需要寻找更好的投放策略、设计出更吸引人的广告素材,以使广告更好地发挥作用。

常见问题

Q1:如何评估广告效果?

A1:广告效果可以通过多种方式评估,例如点击率、转化率、购买量、品牌知名度等等。广告主可以在投放广告的同时设置指标,并利用广告平台提供的分析工具和数据分析软件来对效果进行评估。

Q2:游戏广告能否提高品牌认知度和销量?

A2:游戏广告可以让受众在游戏中不断接收到品牌信息,有助于增加品牌认知度和销量。不少企业在游戏中投放广告,以吸引潜在客户的注意力,并促进他们的购买行为。

Q3:互动贴片广告能否在短时间内对受众产生吸引力?

A3:互动贴片广告能够在短时间内吸引受众的注意力,从而增加品牌认知度和销售数量。互动元素可以让受众更好地记住广告内容,并产生购买或者了解品牌的欲望。

想要了解有哪些广告互动类?快来看看吧!特色

1、经营自己的客栈来赚更多的财富,在你的门派山下建立客栈,招待往来的江湖豪杰;

2、超真实的现实环境物理效果,还用各种不同的场景地图给你挑战。

3、这样就可以变得更加炫酷哦,华丽的服装玩家可以自由的去进行装扮

4、游戏里面的关卡非常的多,玩家在游戏里面可以快速的进行各种的冒险。

5、游戏中使用了各种救援任务,与不同角色进行互动交流;

想要了解有哪些广告互动类?快来看看吧!亮点

1、精致细腻的二次元卡通美工画风,带给你视觉上的冲击。

2、在冒险中,可以不断提升自己的角色,学习更强的角色技能,全面提升角色的战斗力;

3、已集成3D建模宝可梦模组,进入界面点击"游戏"。

4、许多秘密都隐藏在黑暗中,有时候你看到的并不总是事实,需要一双看透一切眼睛才行。

5、挂机训练模式和伙伴们一起战斗,亲手谱写美丽梦想的东方神仙爱情传奇。

jingyingzijidekezhanlaizhuangengduodecaifu,zainidemenpaishanxiajianlikezhan,zhaodaiwanglaidejianghuhaojie;chaozhenshidexianshihuanjingwulixiaoguo,haiyonggezhongbutongdechangjingditugeinitiaozhan。zheyangjiukeyibiandegengjiaxuankuo,hualidefuzhuangwanjiakeyiziyoudequjinxingzhuangbanyouxilimiandeguankafeichangdeduo,wanjiazaiyouxilimiankeyikuaisudejinxinggezhongdemaoxian。youxizhongshiyonglegezhongjiuyuanrenwu,yubutongjiaosejinxinghudongjiaoliu;深度学习GPU选购指南:哪款(kuan)显卡配得上我(wo)的(de)炼(lian)丹(dan)炉?

新(xin)智元报道(dao)

編辑:Joey David

【新智元导讀】最近(jin),曾拿到斯坦福、UCL、CMU、NYU博士offer、目(mu)前(qian)在华盛頓大(da)学读博的知名(ming)测評博主Tim Dettmers在自己(ji)的网站又上线了深度学习领域的GPU深度测评,到底誰才是性能和性价(jia)比之王?

眾(zhong)所周(zhou)知,在处理深度学习和神经网络任(ren)务时,最好(hao)使用GPU而不是CPU来处理,因为在神经网络方(fang)面(mian),即(ji)使是一(yi)个比较低端的GPU,性能也會胜过CPU。

深度学习是一个对计算有(you)着大量需求的领域,从一定(ding)程度上来说,GPU的选择将从根(gen)本上决定深度学习的体验。

但问题来了,如何选购合适的GPU也是件头疼烧(shao)腦的事(shi)。

怎么避免踩雷,如何做出(chu)性价比高的选择?

曾经拿到过斯坦福、UCL、CMU、NYU、UW 博士 offer、目前在华盛顿大学读博的知名评测博主Tim Dettmers就(jiu)针对深度学习领域需要(yao)怎样(yang)的GPU,结合自身经验撰写了万字长文,最後给出了DL领域的推薦GPU。

Tim Dettmers此(ci)人的研(yan)究(jiu)方向是表征学习、硬件优化的深度学习,他自己创建(jian)的网站在深度学习和计算机硬件领域也是小有名气。

Tim Dettmers此文推荐的GPU全部来自N厂,他显然也认为,搞机器学习,AMD目前还不配拥有姓名。

原文链接小编也贴在下面啦(la)。

原文链接:https://timdettmers.com/2023/01/16/which-gpu-for-deep-learning/#GPU_Deep_Learning_Performance_per_Dollar

RTX40和30系的优缺点

與英(ying)伟達图灵架构RTX 20系列相比,新的英伟达安培架构RTX 30系列具有更多优势,如稀疏网络训练和推理。其他功能,如新的数據类型,应更多地被看作(zuo)是一种易用化功能,因为它们提供了与图灵架构相同的性能提升,但不需要任何额外的编程要求。

Ada RTX 40系列甚至有更多的进步,比如上面介绍的张量内存加(jia)速器(TMA)和8位浮点运算(FP8)。与RTX 30相比,RTX 40系列也有类似的电(dian)源和溫度问题。RTX 40的电源連接器电缆融化的问题可以(yi)通过正確连接电源电缆而轻松(song)避免。

稀疏的网络训练

安培允许在密集的速度下进行细粒度结构的自动稀疏矩阵乘法。这是如何做到的?以一个权重矩阵为例,把它切成4个元素的碎片。现(xian)在想象这4个元素中的2个元素为零。图1显示了这种情况的样子。

图1:Ampere架构GPU中的稀疏矩阵乘法功能所支持的结构

当你将这个稀疏权重矩阵与一些(xie)密集輸入相乘时,安培的稀疏矩阵张量核心功能会自动将稀疏矩阵壓缩为密集表示,其大小为图2所示的一半。

在压缩之后,密集压缩的矩阵瓦片被送入张量核心,张量核心计算的矩阵乘法是通常大小的两(liang)倍。这有效(xiao)地產生了2倍的速度,因为在共享内存的矩阵乘法过程中,带宽要求减半。

图2:在进行矩阵乘法之前,稀疏矩阵被压缩为密集表示。

我在研究中致力(li)于稀疏网络训练,我还写了一篇关于稀疏训练的博文。对我的工作的一个批评是:"你减少了网络所需的FLOPS,但并没(mei)有产生速度的提升,因为GPU不能进行快速的稀疏矩阵乘法"。

随着Tensor Cores的稀疏矩阵乘法功能的增加,我的算法或其他稀疏训练算法,现在实際上在训练期间提供了高达2倍的速度。

开发的稀疏训练算法有三(san)个阶段(duan):(1)确定每层的重要性。(2) 删除最不重要的权重。(3) 提升与每层的重要性成比例的新权重。

虽(sui)然这一功能仍处于实验阶段,而且训练稀疏网络还不普遍,但在你的GPU上拥有这一功能意味着你已经为稀疏训练的未来做好了準(zhun)备。

低精度计算

在我的工作中,我之前已经表明,新的数据类型可以提高低精度反(fan)向传(chuan)播期间的稳定性。

图4:低精度深度学习8位数据类型。深度学习训练得益于高度专業化的数据类型

目前,如果你想用16位浮点数(FP16)进行稳定的反向传播,最大的问题是普通FP16数据类型只支持[-65,504, 65,504]范围(wei)内的数字。如果你的梯度滑过这个范围,你的梯度就会爆炸成NaN值。

为了防止在FP16训练中出现这种情况,我们通常会进行损失缩放,即在反向传播之前将损失乘以一个小数字,以防止这种梯度爆炸。

Brain Float 16格式(BF16)对指数使用了更多的比特,这样可能的数字范围与FP32相同,BF16的精度较低,也就是有效数字,但梯度精度对学习来说并不那么重要。

所以BF16所做的是,你不再需要做任何损失缩放,也不需要担心梯度会迅速爆炸。因此,我们应该看到,通过使用BF16格式,训练的稳定性有所提高,因为精度略有损失。

这对你意味着什么。使用BF16精度,训练可能比使用FP16精度更稳定,同时提供相同的速度提升。使用TF32精度,你可以得到接近FP32的稳定性,同时提供接近FP16的速度提升。

好的是,要使用这些数据类型,你只需用TF32取代FP32,用BF16取代FP16--不需要修改代码。

不过总的来说,这些新的数据类型可以被看作是懒惰(duo)的数据类型,因为你可以通过一些额外的编程努力(适当的损失缩放、初始化、规(gui)范化、使用Apex)来获得旧数据类型的所有好处。

因此,这些数据类型并没有提供速度,而是改善(shan)了训练中低精度的使用便利性。

风扇设计和GPU温度

虽然RTX 30系列的新风扇设计在冷却GPU方面表现非常好,但非创始版(ban)GPU的不同风扇设计可能会出现更多问题。

如果你的GPU发熱超过80C,它就会自我节(jie)流,减慢其计算速度/功率。解决这个问题的办法是使用PCIe扩展器,在GPU之间创造空间。

用PCIe扩展器分(fen)散GPU对散热非常有效,华盛顿大学的其他博士生和我都(dou)使用这种设置(zhi),并取得了巨大的成功。它看起来并不漂亮,但它能使你的GPU保持凉爽!

下面这套系统已经运行了4年,完全没有问题。如果你没有足够的空间在PCIe插槽中安裝所有的GPU,也可以这么用。

图5: 带PCIE扩展口的4显卡系统,看起来一团乱,但散热效率很高。

优雅地解决功耗限制问题

在你的GPU上设置一个功率限制是可能的。因此,你将能够以编程方式将RTX 3090的功率限制设置为300W,而不是其标准的350W。在4个GPU系统中,这相当于节省了200W,这可能刚好足够用1600W PSU建立一个4x RTX 3090系统的可行性。

这还有助于保持GPU的冷却。因此,设置功率限制可以同时解决4x RTX 3080或4x RTX 3090设置的两个主要问题,冷却和电源。对于4倍的设置,你仍然需要高效散热风扇的 GPU,但这解决了电源的问题。

图6:降低功率限制有轻微的冷却效果。将RTX 2080 Ti的功率限制降低50-60W,温度略有下降,风扇运行更加安静

你可能会问,「这不会降低GPU的速度吗?」 是的,确实会降,但问题是降了多少。

我对图5所示的4x RTX 2080 Ti系统在不同功率限制下进行了基准测试。我对推理过程中BERT Large的500个小批次的时间进行了基准测试(不包(bao)括softmax层)。选择BERT Large推理,对GPU的压力最大。

图7:在RTX 2080 Ti上,在给定的功率限制下测得的速度下降

我们可以看到,设置功率限制并不严重影响性能。将功率限制在50W,性能仅下降7%。

RTX 4090接头起火问题

有一种误解,认为RTX 4090电源线起火是因为被弯折过度了。实际上只有0.1%的用户是这个原因,主要问题是电缆没有正确插入。

因此,如果你遵循以下安装说明,使用RTX 4090是完全安全的。

1. 如果你使用旧的电缆或旧的GPU,确保触点没有碎片/灰尘。

2.使用电源连接器,并将其插入插座,直到你听到咔嚓一声--这是最重要的部分。

3. 通过从左(zuo)到右扭动电源线来测试是否合适。电缆不应该移动。

4.目视检查(zha)与插座的接触情况,电缆和插座之间无间隙(xi)。

H100和RTX40中的8位浮点支持

对8位浮点(FP8)的支持是RTX 40系列和H100 GPU的一个巨大优势。

有了8位输入,它允许你以两倍的速度加载矩阵乘法的数据,你可以在缓存中存储两倍的矩阵元素,而在Ada和Hopper架构中,缓存是非常大的,现在有了FP8张量核心,你可以为RTX 4090获得0.66 PFLOPS的计算量。

这比2007年世界上最快的超级计算机的全部算力还要高。4倍于FP8计算的RTX 4090,可与2010年世界上最快的超级计算机相媲美。

可以看到,最好的8位基线未能提供良好的零点性能。我开发的方法LLM.int8可以进行Int8矩阵乘法,结果与16位基线相同。

但是Int8已经被RTX 30 / A100 / Ampere这一代GPU所支持,为什么FP8在RTX 40中又是一个大升级呢?FP8数据类型比Int8数据类型要稳定得多,而且很容易在层规范或非线性函数中使用,这在整型数据类型中是很难做到的。

这将使它在训练和推理中的使用变得非常简单明了。我认为这将使FP8的训练和推理在几个月后变得相对普遍。

下面你可以看到这篇论文中关于Float vs Integer数据类型的一个相关主要结果。我们可以看到,逐个比特,FP4数据类型比Int4数据类型保留(liu)了更多的信息,从而提高了4个任务的平均(jun)LLM零点准确性。

GPU深度学习性能排行

先上一张图来看GPU的原始性能排行,看看谁最能打。

我们可以看到H100 GPU的8位性能与针对16位性能优化的旧卡存在巨大差距。

上图显示的是GPU的原始相对性能,比如对于8位推理,RTX 4090的性能大约是 H100 SMX 的 0.33 倍。

换句(ju)話说,与RTX 4090相比,H100 SMX的8位推理速度快三倍。

对于此数据,他没有为旧GPU建模8位计算。

因为8位推理和训练在Ada/Hopper GPU上更有效,而张量内存加速器 (TMA) 节省了大量寄存器,这些寄存器在 8 位矩阵乘法中非常精确。

Ada/Hopper 也有 FP8 支持,这使得特别是 8 位训练更加有效,在Hopper/Ada上,8位训练性能很可能是16位训练性能的3-4倍。

对于旧GPU,旧GPU的Int8推理性能则接近16位推理性能。

每一美元能买(mai)到多少算力

那么问题来了,GPU性能强可是我买不起啊......

针对预(yu)算不充(chong)足的小伙伴(ban),接下来的图表是他根据各个GPU的价格和性能统计的每美元性能排名(Performance per Dollar),側面反映了GPU性价比。

选择一个完成深度学习任务并且符合预算的GPU,可分为以下几个步驟:

首先确定你需要多大的GPU内存(至少12GB用于图像生成,至少24GB用于处理变压器);

针对选8位还是16位(8-bit or 16-bit),建议是能上16位就上,8位在处理复(fu)杂编码任务时还是会有困(kun)难;

根据上图中的指标,找到具有最高相对性能/成本的GPU。

我们可以看到,RTX4070Ti 对于8位和16位推理的成本效益最高,而RTX3080对于16位训练的成本效益最高。

虽然这些GPU最具成本效益,但他们的内存也是个短板,10GB和12GB的内存可能无法滿足所有需求。

但对于刚入坑深度学习的新手来说可能是理想GPU。

其中一些GPU非常适合Kaggle竞赛,在Kaggle比赛中取得好成绩,工作方法比模型大小更重要,因此许多较小的 GPU非常适合。

Kaggle號称是全球最大的数据科(ke)学家汇聚的平台,高手雲(yun)集,同时对萌新也很友好。

如果用作学术研究和服务器运营的最佳GPU似乎是 A6000 Ada GPU。

同时H100 SXM的性价比也很高,内存大性能强。

个人经验来说,如果我要为公司/学术实验室构建一个小型集群,我推荐66-80%的A6000 GPU 和20-33%的 H100 SXM GPU。

综合推荐

说了这么多,终于到了GPU安利環节。

Tim Dettmers专门制作了一个「GPU选购流程图」,预算充足就可以上更高配置,预算不足请参考性价比之选。

这裏首先强调(tiao)一点:无论你选哪款 GPU,首先要确保它的内存能满足你的需求。为此,你要问自己几个问题:

我要拿GPU做什么?是拿来参加 Kaggle 比赛、学深度学习、做CV/NLP研究还是玩小项目?

预算充足的情况下,可以查看上面的基准测试并选择适合自己的最佳GPU。

还可以通过在vast.ai或Lambda Cloud中运行您的问题一段时间来估算所需的GPU内存,以便了解它是否能满足你的需求。

如果只是偶尔(er)需要一个GPU(每隔几天持续几个小时)并且不需要下载和处理大型数据集,那么vast.ai或 Lambda Cloud也能很好地工作。

但是,如果一个月每天都使用GPU且使用频率很高(每天12小时),云GPU通常不是一个好的选择。

参考資料:

https://timdettmers.com/2023/01/16/which-gpu-for-deep-learning/#more-6

https://timdettmers.com/返回搜(sou)狐,查看更多

责任编辑:

发布于:宁夏中卫沙坡头区