第1078章 是否太依赖人工智能?

    第1078章 是否太依赖人工智能? (第3/3页)

    “其中最主要的难点,在于如何对中子场进行精确控制吗,以及如何保证材料非破坏性?”

    “针对于这一点,我也略微有所思路。”

    “基于……进行一体化设计。”

    “这是一个耦合系统……“

    “我计划在材料生长的真空腔室外,环绕上小型化中子产生靶……”

    “用……定向照射……进而驱动原子按照我们计算好的路径进行扩散和重组……”

    这种显得有些异想天开的设计思路,居然也得到了不少人的认可。

    平心而论,虽然说苏定平的想法有些大胆和突兀,但仔细想想的确是有着不小的可行性。

    “最后也是最重要的一点,我们如何保证极端环境下的实时表征和返回控制?”

    “在生产的过程当中,我们必须要实时的监控材料生长的每一个细节,以方便我们及时调整参数。”

    “如果不能做到这一点,很有可能导致最终的成品良品率不高。”

    对于这种比较精密的仪器和材料来说,一旦出现了稍微较大一点的误差,只怕最终的成品直接就报废了。

    成本问题,都还是小事。

    关键是如果不能保证良品率,很有可能生产出来10份甚至是100份材料当中,只有一份两份能用。

    这就会导致时间成本居高不下,也会大大的限制可控核聚变技术的扩展。

    毕竟产能就这么多,你就算是把可控和聚变反应堆建好,如果没有关键的材料,也无法启动。

    “这一点就需要提到当下现在我国最为火热的人工智能了。”

    有人眉头微皱。

    “苏总工,我明白你的想法,我也不得不承认,人工智能的确是一个十分符合我们当下需求的系统。”

    “但如果不管什么事情,我们都需要求助人工智能,那这样的行为……是否略为有些危险?”

    “对于我而言,人工智能就只是一件工具。”

    苏定平淡淡的说道。

    “你我都知道,以当下的人工智能水平技术,不,甚至说是几十年后的人工智能水平技术,都不可能出现真正的强人工智能。”

    什么叫强人工智能?

    简单来说,在情感方面和人类没有任何差别的人工智能,就叫做强人工智能。

    甚至于这种人工智能的学习能力以及各方面的知识储备量,在99%的情况下都要强于人类。

    一旦这样的人工智能拥有了自我的感情,他们只会将人类视为低等的进化动物。

    到最后等待人类的下场将会十分悲惨。

    这一点在文艺作品当中的体现尤为突出。

    比如说终结者里面的T800,再比如说黑客帝国里面的特工……

    苏定平之所以不担心人工智能可能会出现这样或者那样的问题,主要原因便是以目前的技术水平来说,想要研发出真正的强人工智能根本就是不可能的事情。

    事实证明,人类的想象力其实是相当匮乏的。

    上个世纪科幻电影当中,毁灭全人类的天网的算力,也只不过是每秒600000亿次浮点运算。

    这个数字在当时来看的确是一个天文数字。

    可时至今日,一张4090的显卡的运算次数就已经达到了每秒钟100万亿次。

    也就是说毁灭全人类的天网的算力其实只相当于0.6张4090显卡!

    除非真正的量子计算机问世,然后在其他各方面都有了较大的突破。

    否则以目前的科技水平来看,出现强人工智能基本上是不可能的事情。

    “我所说的并不是所谓的强人工智能。”

    那人回答道。

    “我是说,人工智能技术目前还不算成熟,如果发生程序上的错误,很有可能导致我们整个生产链彻底崩溃。”

    “这种情况下,冒险去使用人工智能真的有必要吗?”

    “我们不可能因为一个技术尚不成熟,就不再使用它了。”

    苏定平缓缓的说道。

    “而且我认为,正是因为不断的投入使用,人工智能技术才能够发展得越来越快,才能够更加成熟,才能够更加放心的使用!”