FT 这篇专栏文章(链接、免费镜像、10 分钟阅读时长)探讨了数字化如何让秘书类职业减少甚至消失,越来越多的企业转向数字化工具而非人类完成诸如费用报销等琐碎的工作,在这个阶段,企业职员与支持人员之间必须通过特定工具(比如工单)完成协同;更进一步,随着人工智能相关技术的不断发展,一系列新的工具进一步挤压了人类秘书的生存空间,当这些工具可以自动完成审批流程的时候,人类秘书也就没有多少存在价值了。
我最近脑海里反复出现一种句式:「当我们谈论 AI 风险时,我们在谈论什么」?特别是看到伊隆马斯克等人呼吁停止研发新 AI 系统六个月的时候,这个问题更加明显。
NYT 计算机教授 Gary Marcus 的这篇文章(链接、15 分钟阅读时长)给出了他的回答:与其关注虚无缥缈的通用人工智能风险,不如认真思考当下——大语言模型会给社会带来哪些负面影响,我们又该如何应对。
Gary Marcus 的立场非常明确:一方面,技术上,以 GPT-4 为代表的大语言模型和所谓通用人工智能无关,我们不能假设 GPT-4 持续发展会将人类推向通用人工智能时代;但另一方面,大语言模型带来负面影响逐渐凸显,比如不负责任地宣传与推广(特指微软 Bing),再比如不法分子已经开始研究潜在的犯罪场景等。
我赞同 Gary Marcus 的这个观点,我们不必为未知或者可能不会有的风险感到担心,更应贵专注于当下的风险,从大语言模型习惯性的胡说八道到滥用大模型带来的法律争议,这些现实挑战需要技术人员持续攻关,也需要全社会共同努力。
人类与聊天机器人的爱恋
人类「爱上」聊天机器人的历史可以追溯到上世纪 70 年代,彼时 MIT 科学家约瑟夫·魏泽鲍姆研发了一个名叫「伊莉莎」的聊天机器人,其本意是为了在临床治疗中模仿心理医生,但很快测试者就就开始迷恋与「伊莉莎」聊天,一些人坚持「伊莉莎」可以听懂自己的话,并情不自禁地透露一些个人私密信息。