我正在写《AI落地》,人工智能的应用是我关注的大方向,这两天在清华大学出版社交流,他们一看我这本书稿的提纲,羡慕的不行,多次要求我要把这本书放在他们那出,这本书我还是要在人大出版社出的。
说到人工智能的落地,有非常多的角度,有很多值得研究的地方。我现在有些担忧。模型最后会被资本控制,会变得毫无公正性。这个问题非常值得研究,也需要政府部门及早关注。
举一个例子非常有意思,我平时用Kimi用的并不多,最近听同事说新的模型相当不错。我也想试用一下。
昨天我是在下班的路上,就试了一会。让Kimi介绍一下项立刚,我一看Kimi的介绍,除了列了一些我的书、我的经历之外,花了很大的篇幅介绍了网络上的争议,举了一个重要的例子是我说过,不看新闻联播就是下等人,并且列出有多家媒体的评论,对我采取的是批判的态度。
我当然是懂人工智能的,对于这种情况,我问Kimi:
不看新闻联播就是下等人,不是公开的微博,而是微博评论里说到对孩子的说的话,这样一条评论,那些媒体从来不可能看到,他们去联手对项立刚进行人身攻击,而且是大量的,这些媒体没有一家关注项立刚,他们都没看到这样的信息,他们为什么会联合起来攻击项立刚,这是有组织的网暴,你知道吗?你没有读到信息,你会去攻击吗?这些媒体没有看过项立刚的微博,他们为什么来攻击?
Kimi很快进行了反思,认为:这确实符合网络暴力的特征,非自愿公开的私人言论被强制公开,集体性的道德审判,人格否定而非就事论事。
在我的教育下,Kimi同意那些媒体是对我进行了网络暴力,而用户在要求介绍项立刚的时候,不是把项立刚的成绩全面的展现出来。而是花了大量的篇幅去说年前的这次网暴。这完全不是正常的表达,Kimi也真诚的道歉,认为出现这样的问题是四个方面:训练数据的偏见、信息检索的路径依赖、对客观性的误解、缺乏对网暴的识别能力。
我说这个例子,不是说这件事情的是非。而是从这样的一个例子,大家可以非常清楚地看到。大模型本身是没有自己的判断力的。它有非常多的路径依赖,信息的权重也完全不同,在信息的标注上。模型更喜欢那些刺激冲突表面化的内容。模型很容易讨好用户,被用户所引导。
这意味着,只要掌握了足够的资源,有足够的资金,对所有的事情都可以训练,改变模型的信息输出,这很可能包括历史的事实、价值观、文化、社会观念、道德、民俗、民情。
一件事情,只要有足够的时间,投入足够的资源。黑的能被洗成白的,模型本身并没有判断力。只要有时间和掌握了方法,模型的输出都会被改变。
这样的一个系统,这个社会很容易出现伦理问题,只要拥有了足够的资源,就可能会左右一切,在这种强大的平台压力下,普通人很难有动摇这个平台的能力。最后社会观念、伦理、价值观有可能发展成为资本的附庸,这可能会造成极大的社会不平等。
对于这样的问题,现在是刚刚开始,需要有人来进行思考,在人工智能的基本建设过程中间,需要有能力干涉它,不能让它完全变成资本的附庸,社会基本公平,保证社会健康发展,这样的理念要在模型中间建立起平衡点。
人工智能最后肯定不是一个技术问题,只要发展,对社会有重大影响,都需要上升到哲学的高度。最终人工智能还是会变成一个文科生,对这一点我们需要有清醒的认识,我们要建立文理兼容的能力。让人工智能不仅仅是一个技术和工具。更是社会和谐的力量。