图拉丁吧 关注:7,772,335贴子:130,255,063

回复:挂个游戏领域大神,顺便讲讲深度学习电脑该怎么配。

只看楼主收藏回复

插眼


IP属地:山东来自Android客户端16楼2023-10-07 11:08
收起回复
    个人用户AI能做哪些东西呢


    IP属地:浙江17楼2023-10-07 11:15
    收起回复
      请教lz,打算入手2080ti魔改,2080ti的nvlink是否需要主板支持sli,游戏卡上阉割的nvlink是否有必要,或者说单纯插两张卡各干各的比较好


      IP属地:湖北来自Android客户端18楼2023-10-07 11:16
      收起回复


        IP属地:广东通过百度相册上传19楼2023-10-07 11:18
        回复
          ika能跑专业吗 比如ai之类的
          a770吗 不懂学习下


          IP属地:湖南来自Android客户端20楼2023-10-07 11:19
          收起回复
            jy是什么味道


            IP属地:上海来自Android客户端21楼2023-10-07 11:31
            收起回复
              攻击力太低了


              IP属地:河南来自Android客户端22楼2023-10-07 11:36
              回复
                系统杀疯了,因为你闻到了jy


                IP属地:江苏来自iPhone客户端23楼2023-10-07 11:43
                收起回复
                  说生产力建议计算一下时间和收入比


                  IP属地:辽宁来自Android客户端24楼2023-10-07 11:46
                  回复
                    上面有人提到了nvlink,我就来说说nvlink吧。
                    nvlink是一个接口,也是一个协议。游戏卡只能使用nvlink接口走sli协议来使用双卡打游戏。
                    显存叠加这个步骤相当于把一个任务装在两个篮子里(显卡),一个篮子装不下就有两个选择。
                    使用nvlink协议,把两个篮子变成一个大篮子。
                    另一种方式就是把任务切割成两份,分别装在两个篮子里。
                    大部分的任务很难切割,但是ai模型高度对称解藕,是可以进行完美切割的。
                    因此不需要nvlink便可以实现显存叠加。


                    IP属地:北京来自Android客户端25楼2023-10-07 11:58
                    回复
                      这种U的性能该如何判断呢?捡es版风险相比消费级如何?有天梯图吗?也没见有人用跑分软件测啊


                      IP属地:江苏来自Android客户端26楼2023-10-07 12:20
                      收起回复
                        但是nvlink也是有用的,但是作用有限,因为pcie版本的显卡nvlink只支持双卡。sxm版本的nvlink就有用多了。
                        nvlink的作用是提供了一种更快的显卡间高速通信方式,是非常有用的。多卡间需要需要使用nvlink或者pcie来交换梯度,梯度是非常大的。双卡下大约10-20%左右的时间是用来同步数据上的。
                        nvlink可以大大的加快这个进程,提高显卡利用率。然而nvlink使用条件很苛刻,需要代码的支持,大部分情况下是用不到的。
                        然而,上面的情况只针对于训练模型。
                        如果你只是用多卡来跑大语言模型,或者stable diffusion画图,nvlink对你作用是0,用pcie就好了。
                        另外显卡最低保证提供pcie3.0 *8的通信带宽,低于这个数值会严重影响显卡性能的发挥。


                        IP属地:北京27楼2023-10-07 12:30
                        回复
                          前段时间炒M系列和P系列的计算卡洋垃圾我是真没想到(个人感觉是之前P字头矿卡的余波?)。虽说就目前来看如果光跑个AI画图之类的推理类需求或许还行(不考虑CUDA Capability的问题的话),但是拿来训练,但凡来点FP16之类的,P100根据我同学的反馈都力不从心。


                          IP属地:江苏28楼2023-10-07 13:05
                          收起回复
                            群雄逐鹿呀


                            IP属地:安徽来自Android客户端29楼2023-10-07 13:17
                            回复
                              你这理解差不多得了13600k用6大核12线程训练模型,比5600的6核12线程都要快。
                              显卡确实最重要,但cpu的重要性忽略不了一点。


                              IP属地:浙江来自Android客户端30楼2023-10-07 13:21
                              收起回复