淘客熙熙

主题投票你会变分法吗? -- 乾道学派

共:💬74 🌺191 🌵11 新:
  • 投票信息

    单选,参与 28 / 0

    没学过
    19/0
    学过,没掌握
    5/0
    学过,掌握了,没在工作实践中使用过
    3/0
    学过,掌握了,用来解决过实际工程问题
    1/0
全看树展主题 · 分页首页 上页
/ 5
下页 末页
家园 据我个人观察,实际工作上有限元的制约可能真是内存

我自己是做CFD的,跟公司里做FEA的组共享计算机集群。就我日常观察而言,FEA组的计算项目对CPU数量没啥要求,但是非常吃内存。以目前的24 CPU + 128G 内存的配置,FEA的计算使用的CPU数量往往只有3-4个就顶天了,而内存常常是拉满还不够用。不过反过来说,FEA运行速度确实受制于CPU的单核速度,搞并行的收益不大。从这个角度讲,那确实是被算力制约了。

家园 其实就是我的意思

你的cluster,内存是跟着node走的,一个node比如32个CPU,几十个到上百G的内存。你要是并联做得好,完全可以几十个node一起跑。速度快,内存也不用拉满。

做的不好,往上加更多的CPU速度反而慢了,就没意思了。要是真是被内存限制了,这种情况反而是宁可慢也要并联,否则做不下去。

这几年cluster的设备成本降的飞快,所以说内存不是那么大的瓶颈。十几年前不一样。

家园 其实我估计他们组的方法比较陈旧

我大概能猜到他们是在干什么。但是太多的就不说了,免得惹麻烦。

家园 就是内存,我的使用经验也是内存是瓶颈

有限元是先分区再求解矩阵方程,靠分区来减小维度。当分区无法减小(尺寸过大)的时候就会爆内存。

家园 确实是这样的。

我们CFD组就是堆CPU,多个node一起跑。作为商业用户我们能跑多快却决于软件供应商的水平。就我们的具体应用场景来说,STAR跑并行的性能比Fluent强不少。依网格复杂程度不同,我们在实践上最多跑过1440个CPU核心,日常主流则是192个核心上下。FEA组干活的主力软件还是Ansys,他们的典型场景则是少量CPU配大量内存。一般是1-2CPU配128G内存,必要的时候他们用2个node跑256G内存。随着老旧的128G内存node逐步被替换成256G内存加更强的CPU版本,他们的痛点有望缓解。

家园 除非是纯线性问题

否则我们一般不在用implicit method 了

家园 ANSYS毁人不倦

啥好东西被它买去就算完了。FLUENT过去人人都说好的东西,现在我看一点进步也没有。现在又去祸害LS-DYNA去了。

不管啥东西,买来了往它的workbench上一加,就算整合完了。

家园 早知道如此

我是绝不会回这个帖子的。

真希望西西河有删除功能。

家园 我17年就和他说过:“你缺乏最最基本的相关知识”

你还是不要讨论相关问题了,因为你缺乏最最基本的相关知识。

燃烧是一个专门学科,我上研究生看的是周力行先生写的书

通宝推:Swell,
家园 我当时就回你了。

那种招标会不是中石油直属设计院说了算的。

家园 力学的不甚了解,电学的是线性的

可能网格变形以后的处理方法会不一样吧,没有研究过。

家园 不能同意更多

Fluent本身进步还是不错的。但是Ansys的系统集成真是一塌糊涂,吐槽都无从下口。workbench搞到半吊子被放弃了。新的集成工作流界面看上去挺美,用起来还是各自为战。比workbench也就强一丢丢。而且也不知道是不是强行内部统一的结果,原来很好用的独立软件,收购到了ansys手里性能无比拉胯,简直了……

家园 最简单的有限元方法就是差分法啊

你把时间的导数差分,和空间的导数差分,没有什么区别,唯一的区别是时间的初始条件和空间的边界条件形式不一样,但这是数学的差别,你不要把有限元法看成物理的,它就是一个数学的方法,t和x对它来说就是一个变量而已,给它一个等式它就能算,在计算的过程当中是没有什么过去和未来的。很多场方程都是含时的,只不过经过一个暂态后就达到稳态了,时间的部分不需要算很长,时间离散化完全没有问题啊。

家园 你这一段话

严格来说没有一句是对的。

还是看看教科书吧。

家园 当代院士至少博士毕业吧

数理基础不行。。。比不过开咨询的?!

全看树展主题 · 分页首页 上页
/ 5
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河