相关主题
{{discussion.title}}
最牛社区
首页
新主题
新回复
热门
注册
登录
请问我有 3 个 NVIDIA GT 1030(18GB RAM) (总共 80) 如何串接用在 ollama, deepseek?
{{ getUsernameByUid(818) }}
发布{{ getTimeInfo('2025-03-11 16:42:46') }}
#0
{{ getUsernameByUid(818) }}
发布{{ getTimeInfo('2025-03-11 16:42:46') }}
#0
有空余的 3 个显卡想串接在一起跑 AI在京东搜寻显卡串接没有找到产品买
{{ getUsernameByUid(2839) }}
发布{{ getTimeInfo('2025-03-11 20:02:27') }}
#1
{{ getUsernameByUid(2839) }}
发布{{ getTimeInfo('2025-03-11 20:02:27') }}
#1
啥显卡? 1030 ??????
这东西不是单卡 2GB 显存吗? 48GB 带宽,折腾它有啥用?可能还没你双通道内存的带宽高。
又不支持 nvlink ,想互通还得用 PLX
架构也太老了,Pascal 架构,连张量并行都用不了。
别折腾了。
想玩大模型,有那个精力,多挣 1 千块钱,起码弄张 T10-16G 就够你玩了。
它就是个亮机卡,别让它干这么重的活儿了,放过它吧。
{{ getUsernameByUid(818) }}
发布{{ getTimeInfo('2025-03-12 08:37:35') }}
#2
{{ getUsernameByUid(818) }}
发布{{ getTimeInfo('2025-03-12 08:37:35') }}
#2
谢谢您,看来省不了钱了
{{ getUsernameByUid(post.updatedByUid) }}
编辑于 {{ getTimeInfo(post.UpdatedAt) }}
{{ getUsernameByUid(post.uid) }}
发布于 {{ getTimeInfo(post.CreatedAt) }}
# {{post.num}}
{{ getUsernameByUid(post.updatedByUid) }}
编辑于 {{ getTimeInfo(post.UpdatedAt) }}
{{ getUsernameByUid(post.uid) }}
发布于 {{ getTimeInfo(post.CreatedAt) }}
# {{post.num}}
{{ getUsernameByPostNum(post.mentionNum) }}
登录回复
#{{nav.post.anchor}}
{{ alert.text }}
关闭