ChatGPT和商业教育的未来
作者:编辑部
2023-02-07
摘要:ChatGPT如何帮助和阻碍商学院的研究和学习。

超过100万的用户已经测试了ChatGPT的潜力和极限,这是人工智能研究公司OpenAI开发的聊天机器人,可以写电子邮件、诗歌或代码,甚至可以制作整个研究论文。该聊天机器人最近通过了沃顿商学院的MBA考试,引发了进一步的钦佩和震惊。

一些学术期刊出版商已经禁止作者使用ChatGPT,教授们正在改变考试和作业以应对这一工具。但是,ChatGPT是一个转折点,将改变我们所了解的商学院吗?

虽然我们中的许多人被这种输出方式的惊人和自然所震惊,但这并不意味着它对我们所做的一切都有用。

一个有用的陪练

ChatGPT是一个有用的文本编辑器和翻译器(包括编程语言),但它并不是一个搜索引擎或知识来源,它产生的答案如果不能轻易验证,那么在被证明之前都是可疑的。然而,当人们可以快速验证副本是否合理或代码是否有效时,它还是很有用的。在写作时,它也是一个有用的陪练,它可以迅速产生大量的主题变化。

当涉及到具有开放式内容的作业时,老师们已经开始要求学生提交对他们所选主题的ChatGPT回应,并在附录中告知他们是如何使用它的。很难对他们是否使用它进行监管,这是一个他们需要学习如何使用的工具。学生们应该少担心ChatGPT使他们成为多余的人,而多担心被能够有效使用这种技术的人所裁减。

只适用于狭窄的查询

当用ChatGPT进行微观经济学考试时,结果令人失望。它只答对了一个关于最近OPEC+行动的简单得可笑的问题。在20个问题中。到今天为止,它不能可靠地添加或提取衍生工具,没有基本的理解,只能自动完成句子。这意味着我可以愉快地发放开卷考试。

ChatGPT类似于约翰·塞尔的房间论。苏尔想象自己在一个房间里,跟着电脑程序对从门缝里塞进来的汉字做出反应。苏尔对中文一无所知,但通过按照程序操作符号和数字,他将适当的回复作为一串串的中文字符送了出去。门外的人误以为苏尔是一个讲中文的人。这就通过了图灵测试。但操纵符号串的句法规则对意义没有真正的理解,这就是ChatGPT的本质。

ChatGPT似乎有三个目标。要有帮助,要真实,要无伤大雅。然而,在它试图成为有帮助的(和无害的),它偶尔会编造一些东西。当它试图做到有帮助和真实时,它可能会说一些令人反感的话。OpenAI的强化学习和人类的反馈是否能抓住并纠正这一点?惩罚无益的答案可能会促使人工智能给出错误的答案;惩罚错误的答案可能会使它给出令人反感的答案;而惩罚令人反感的答案可能会使它给出无益的答案。OpenAI需要解决这个不可能的三位一体问题。

对Siri的渐进式改进

鉴于所有的炒作,人们可能会对ChatGPT有点失望。乍一看,它的成就令人印象深刻,但仔细一看,它与Siri等虚拟助手相比,只是一种递增的改进。虽然它在人工智能已经擅长的事情上有所改进,比如写语法句子和翻译,但它在人工智能从未擅长的事情上仍然很差,包括写更长的连贯文本和开发新的想法。它的回答也很啰嗦,而且不确定,当它确定时(即,明确的是或否),它往往是错误的。

虽然我没有看到研究方面的直接用例,但最重要的影响可能是人工智能抄袭,例如在学生的作业和供审查的手稿中,因为ChatGPT可以写出看似合理的文本。但它通常经不起推敲,一个主要问题是它不善于为其文本寻找来源。

对同一问题的截然不同的答案

当商学院老师用ChatGPT参加不确定性、数据和判断考试时,会发现它只能回答需要教科书式答案的简单问题。然而,当问题更难,需要更多的概念理解时,ChatGPT提供了优雅的书面答案,但完全忽略了情况的整体性,因此得出了错误的结论。

在一道关于跑步比赛获胜概率的考试题中,向ChatGPT询问了三次完全相同的问题,得到了三个截然不同的答案,逻辑和结论都不一样。这三个答案都是错的。有趣的是,ChatGPT犯了一个逻辑上的比较错误它认为,像其他运动一样,高分会战胜低分,而在跑步比赛中,赢家的时间更短。它还在计算中犯了一个代数错误,这对于一个计算机模型来说是令人震惊的。

也许在未来的考试中,老师会给学生提供人工智能解决方案,并要求他们识别和纠正错误,而不是让他们从头开始解决问题。另一个选择可以是让学生识别ChatGPT提供的错误答案,并让他们重新表述他们的提示和问题,以获得更好的答案。

对人们工作的补充,而不是替代

对于简单的编码任务,ChatGPT可以加快Python代码的编写和调试的初始阶段。从简单的提示开始,然后从那里建立,或者粘贴需要帮助调试的代码。输出结果仍然需要编辑,但它是对阅读文档和查看Stack Overflow上的建议的一个有益补充。

在课堂上使用ChatGPT来帮助学生解释代码和编辑代码。然而,由于输出有时会出错,所以它不能代替我们在课堂上的工作,而是一个有用的工具,让学生可以直接检查输出的准确性。很期待建立在GPT-3上的新应用,它可能会帮助我们加快系统性的文献回顾,并找到更多的相关论文。

有助于产生替代性的观点

ChatGPT可以用于压缩,如提供文章、电子邮件和书籍的摘要,但前提是用户要运用批判性思维来剔除错误信息。它还可以帮助产生“替代观点”,以了解不同群体如何看待产品描述、政治声明、任务声明或新闻等事物。例如,你可以要求ChatGPT对一篇文章进行雄心勃勃的、赞美的、愤世嫉俗的或特定文化的总结,以此来发现新的思维方式,提出新的问题,同时改进原文。

这对我们的教育系统有影响。未来的学生可能会被要求为人工智能写10个问题,并根据要求的不同版本和观点评估其答案,而不是回答问题。在这个意义上,人工智能可能确实被证明对教育很有价值,就像印刷术一样。“超级创造力”,一个我们几年前概述的概念,就在眼前。用学者、企业家和Google X创始人塞巴斯蒂安·瑟伦(Sebastian Thrun)的话说:“我们甚至还没有开始了解人工智能将变得多么具有创造性。如果你把世界上所有的知识和创造力都放在一个瓶子里,你会对里面的东西感到惊讶”。

通过使用ChatGPT生成关于一个主题的多个文本,人们还可以将该文本量与人类写的文本区分开来,以确定可能的差异和潜在的研究空白。这种与人工智能合作以创造更好的内容、想法和创新的能力将变得越来越重要。展望未来,我们还需要开发创新和强大的流程,让人类与机器一起工作,并监督人工智能,以确保其产生或做的事情是安全和值得信赖的。

范围狭窄,产出单一

有一些人恐慌,认为更进化的ChatGPT将使学者们失去业务。问题是这个工具最终是否能写出比我们现在的学术研究有更高的质量或更多的性质。基于GPT的系统范围狭窄,输出单一,但是,就像IBM Watson一样,制造新闻,让人着迷,这只是一件好事。

在未来,相信会有算法的期刊,人们会审查一个算法,并接受它产生的任何东西或不接受。这些算法将成为品牌,就像深蓝、IBM Watson和ChatGPT一样,而“作者”将是为其编程的人。文章将被自动生成,并随着新数据的到来而被修改。如果我们再往前走一点,现在是代码写代码,这意味着我们甚至不需要工程师了。我们要么是自己生成这些算法,要么是使用这些算法的游戏。


热门文章