主题:投票你会变分法吗? -- 乾道学派
- 投票信息
单选,参与 28 / 0
没学过19/0学过,没掌握5/0学过,掌握了,没在工作实践中使用过3/0学过,掌握了,用来解决过实际工程问题1/0
我自己是做CFD的,跟公司里做FEA的组共享计算机集群。就我日常观察而言,FEA组的计算项目对CPU数量没啥要求,但是非常吃内存。以目前的24 CPU + 128G 内存的配置,FEA的计算使用的CPU数量往往只有3-4个就顶天了,而内存常常是拉满还不够用。不过反过来说,FEA运行速度确实受制于CPU的单核速度,搞并行的收益不大。从这个角度讲,那确实是被算力制约了。
你的cluster,内存是跟着node走的,一个node比如32个CPU,几十个到上百G的内存。你要是并联做得好,完全可以几十个node一起跑。速度快,内存也不用拉满。
做的不好,往上加更多的CPU速度反而慢了,就没意思了。要是真是被内存限制了,这种情况反而是宁可慢也要并联,否则做不下去。
这几年cluster的设备成本降的飞快,所以说内存不是那么大的瓶颈。十几年前不一样。
我大概能猜到他们是在干什么。但是太多的就不说了,免得惹麻烦。
有限元是先分区再求解矩阵方程,靠分区来减小维度。当分区无法减小(尺寸过大)的时候就会爆内存。
我们CFD组就是堆CPU,多个node一起跑。作为商业用户我们能跑多快却决于软件供应商的水平。就我们的具体应用场景来说,STAR跑并行的性能比Fluent强不少。依网格复杂程度不同,我们在实践上最多跑过1440个CPU核心,日常主流则是192个核心上下。FEA组干活的主力软件还是Ansys,他们的典型场景则是少量CPU配大量内存。一般是1-2CPU配128G内存,必要的时候他们用2个node跑256G内存。随着老旧的128G内存node逐步被替换成256G内存加更强的CPU版本,他们的痛点有望缓解。
否则我们一般不在用implicit method 了
啥好东西被它买去就算完了。FLUENT过去人人都说好的东西,现在我看一点进步也没有。现在又去祸害LS-DYNA去了。
不管啥东西,买来了往它的workbench上一加,就算整合完了。
我是绝不会回这个帖子的。
真希望西西河有删除功能。
可能网格变形以后的处理方法会不一样吧,没有研究过。
Fluent本身进步还是不错的。但是Ansys的系统集成真是一塌糊涂,吐槽都无从下口。workbench搞到半吊子被放弃了。新的集成工作流界面看上去挺美,用起来还是各自为战。比workbench也就强一丢丢。而且也不知道是不是强行内部统一的结果,原来很好用的独立软件,收购到了ansys手里性能无比拉胯,简直了……
你把时间的导数差分,和空间的导数差分,没有什么区别,唯一的区别是时间的初始条件和空间的边界条件形式不一样,但这是数学的差别,你不要把有限元法看成物理的,它就是一个数学的方法,t和x对它来说就是一个变量而已,给它一个等式它就能算,在计算的过程当中是没有什么过去和未来的。很多场方程都是含时的,只不过经过一个暂态后就达到稳态了,时间的部分不需要算很长,时间离散化完全没有问题啊。
严格来说没有一句是对的。
还是看看教科书吧。
数理基础不行。。。比不过开咨询的?!