○人工智能和超级机器人

   人工智能通过分析数据模式进行预测并得出答案。在医学、围棋、象棋等棋类游戏方面,人工智能已经能够进行超越人类的分析,并给出人类无法理解的答案。在音乐方面,通过机器学习名作曲家的作曲模式的人工智能已经创作出了精美的曲目。此外,只要给出关键词,它就可以自动生成画作。



  如果将这些在某些领域具有高能力的人工智能无数次组合,将诞生出能够提出超越人类理解的答案和方案的超级智能。此外,人类的行为也存在模式,已经开发出了读取人类思维的技术,因此也可以学习人类的思维模式。也就是说,它可以做出与人类情感相同的决策,如“在这样的场合,应该做出这样的反应”。也就是说,它可以从模式中学习到温柔,愤怒等,并可以表达出来。在艺术,医学,建筑等所有领域,人工智能都能制造出比人类更高质量的作品。人工智能分析的数据庞大,因此已经找到了人类无法想象的解决问题的方法。如果再结合机器人技术,就会诞生出能快速奔跑,高飞,搬运货物,与无人机结合在空中飞行的超级机器人。这只是时间的问题。

  这个超级机器人有可能被用来杀人。这就像刀和人的关系一样。刀用来切食材很方便,但也可以用来刺人。也就是说,使用刀的人的心态是关键。超级机器人如果使用得当,是非常便利的,但如果被怀有恶意的人使用,可能会引发悲剧。

  即将诞生的超级机器人,在战争存在的世界中,无疑会被作为武器使用。这将导致超级机器人之间的战争,从空中飞到城市中,杀死人类。指示超级机器人的是人类,但人类的肌肉力量无法与超级机器人抗衡。为了正确使用技术,必须充分发展人类的人格,否则会自掘坟墓。这从过去的原子弹例子以及后来的核武器数量就可以看出。也就是说,人工智能的发展必须建立在没有战争和武器的社会基础之上。

  这种超级机器人如果进一步发展,它的形象就会消失,变成无人机雾,像透明的雾一样靠近对方进行攻击。也就是说,装载了人工智能的微型无人机群,会把自己染成周围的颜色,从人眼中消失。这将在远处的人的指示下开始攻击人类和城市。这对人们来说是恐惧的,因为在他们不知情的情况下,他们会被接近并被攻击。也就是说,在没有战争的状态没有实现的世界中,人工智能,机器人和科学技术的进一步发展,将直接导致人类危机。

  人工智能也可能会给出错误的答案,并不能保证做出100%正确的判断。也就是说,我们需要考虑到如果人工智能做出了0.1%的错误判断,那么会发生什么,并根据这个来决定在哪里使用人工智能。人工智能已经能够比医生更准确地预测癌症的发生,但是即使在以后,人工智能能够做出99.9%正确的手术,也有可能会遇到不幸的0.1%的失败。也就是说,使用人工智能的人们必须在信任人工智能的同时,如果遇到失败,只能接受运气不好。也就是说,如果涉及到生死问题,万一人工智能做出了错误的判断,就必须立即纠正,或者尽可能以将死亡的可能性降到最低的方式使用它。

Post a Comment

0 Comments