当前所在位置: 首页 > 资讯 >

世界热文:学校封杀,大厂禁用,ChatGPT引发大面积恐慌!

2023-01-11 14:43:41来源:华尔街见闻

12月,ChatGPT大红大紫之际,就有诸多学者和研究人员发出警告:ChatGPT很可能「杀死」大学论文。最近,纽约市教育局就正式对ChatGPT下了封杀令。


(资料图片仅供参考)

无独有偶,在很多互联网大厂,ChatGPT也遭到了封杀。很多已经习惯向ChatGPT咨询代码问题的码农们,原地爆哭……

大厂封杀ChatGPT,码农哭了

近日,一位码农在网上发帖称,在自己所在的大厂,办公室wifi禁用了ChatGPT。这直接把他整崩溃了。

图源:新智元

博主表示,自己一名初级软件工程师,而在团队中,前辈们总是很忙,没有时间给他解释问题。

每当他在工作中卡住时,ChatGPT都是他的救星。

但是昨天,当他在办公室坐下时,忽然发现没法访问ChatGPT了!他瞬间破防。

在他的帖子下,热心网友纷纷献计。

比如,买一个便宜的VPS和域名并设置一个反向代理到ChatGPT官网;在浏览器中启用DoH和ECH;使用一个在线代理;或者在手机上通过电子邮件将输出结果发送给自己等等。

图源:新智元

当然,有网友对公司的这个操作表示赞同:「你司禁用ChatGPT是很有道理的,好好想想,如果你解决公司问题的代码可以很轻易地被竞争对手获得,会产生什么后果吧。」

图源:新智元

「不要向ChatGPT,或者从ChatGPT上复制粘贴代码。在法律上,公司或客户的代码并不属于你。而且你也没有ChatGPT上代码的版权。如果你这么做,会让你面临诉讼,被解雇。」

图源:新智元

的确,已经有大厂向员工发送电子邮件称:「ChatGPT不是不能用,但是如果你往里面上传代码,你就会面临被解雇的风险,因为我们的代码非常敏感。」

图源:新智元

不过,也有网友给出了扎心回复:「如果一个初级开发者在没有ChatGPT的情况下,就无法完成工作,那么他对公司来说,真的是可有可无。」

图源:新智元

纽约颁布禁令,师生全都禁用

就在1月3日,拥有全美最大公立学校系统的纽约市,正式颁布了「ChatGPT禁令」。

也就是说,不管是老师还是学生,都无法在纽约市公立学校的网络和设备上使用ChatGPT。

最近,洛杉矶和巴尔的摩的学区也加入到了这个行列。

纽约市教育局发言人Jenna Lyle表示,虽然ChatGPT可以提供快速和简单的问题答案,但它不能培养学生批判性思维和解决问题的能力,而这些对于学术和终身成功来说至关重要。

当然,如果学校的目的是研究ChatGPT背后的技术,还是可以申请访问的。

目前,ChatGPT将对论文作弊的风险产生什么影响还有待观察,因为学生仍然可以在校外访问自己的设备和网络。

而佐治亚州的科布县的态度,不仅没那么强硬,甚至还对采用ChatGPT颇有兴趣。

该学区的一位发言人表示,「在高素质的科布县教师手中,ChatGPT可以成为补充学生对学术内容理解的宝贵工具,并可以帮助学生发展批判性思维能力。」

对此,在纽约精英高中Brooklyn Tech任教的Adam Stevens也认为,禁用ChatGPT反而会带来消极的影响。

毕竟在15、20年前,当学生可以「在网上找到答案」时,这些人也是这么针对谷歌的。

Stevens认为,培养学生批判性写作技能的最好方法是「邀请他们探索值得了解的事情」,并远离基于严格的评分标准的公式化写作教学。

「当然,如果你更看重学期末的分数,那么ChatGPT确实是一个威胁。」

同样,俄勒冈州桑迪市的一名高中英语老师也有类似的看法。

Shields老师有25年教龄,她认为,其实大可不必「谈ChatGPT色变」,这款AI完全可以被用来帮助学生产生想法、组织思路,甚至撰写整篇论文。

图源:新智元

在她看来,教师们应该接受,AI是学生可以使用的一种工具,就像每个老师都教学生如何使用搜索引擎一样。

很多学生苦于无话可写,此时教师可以使用ChatGPT向学生展示如何生成提示,来刺激他们的写作。

Shields老师曾让ChatGPT以7年级生、10年级生和大学生的风格写同一个主题的文章,每个级别之间的句法差异程度令人震惊。因而,完全可以使用这种AI生成的反馈,来向学生展示如何改进他们的写作。

ICML发文澄清:主要为防止抄袭,不影响润色文章

前两天,国际机器学习会议ICML 2023突然宣布:禁止使用大规模语言模型(如ChatGPT)生成论文的内容,除非这些文本是实验分析的一部分。

要求一经提出,便引发了众多研究人员的不满:拼写检查和文本预测基于的就是语言模型,为啥不让我们用?

图源:新智元

对此 ,图灵奖得主Yann LeCun评论道:「大型语言模型不能用,意思是换成中型和小型语言模型就行咯?」

随后还不忘阴阳一句:「明年的ICML道德准则应该变成:研究人员必须徒手完成各种计算,不能借助计算机;各类图形必须用笔和纸手绘;从今天起,ICML的官方语言变为瑞典语(瑞典:?)。」

图源:新智元

由于引发的讨论太过激烈,ICML不得不单独发一条长文来解释这个规定。概括来说,有三个要点:

政策禁止完全由LLM「生成」的文本,但这并不影响作者使用LLM来编辑或润色自己写的文本。

政策主要是防止使用LLM可能会出现的潜在问题,比如抄袭。

目前,政策仅适用于ICML2023。随着我们对LLM及其对科学出版的影响有了更深入的了解,这一政策可能会在未来的会议中发生变化。

图源:新智元

大规模语言模型,争议丛生

在过去的几年里,大规模语言模型(LLM)的发展非常迅速。最近,这一进展不仅没有放缓,甚至还更快了。

正如大家看到的,过去几个月发布的LLM,如OpenAI的ChatGPT,已经能够生成难以与人类相区分的文本片段。毫无疑问,这是自然语言处理和生成方面令人兴奋的进展。

但这种快速的进展往往伴随着意想不到的后果以及无法解答的问题。比如,由模型生成的文本和图像是新颖的,还是现有工作的衍生品?

此外,文本片段、图像以及其他由这些模型产生的内容,又应该归谁所有:是生成模型的用户,还是训练模型的开发者,抑或是制作训练数据的内容创作者?

可以肯定的是,随着大规模生成模型被更广泛地应用,这些问题都将随着时间的推移得到解答,但现在还不行。尤其是距离ChatGPT的发布才过了不到2个月(2022年11月底)。

而对于ICML来说,他们并没有足够的时间来观察和调研ChatGPT将会对论文审稿和发表过程,产生何种影响。

考虑到针对这项新技术所采用的策略,会直接关系到研究人员的职业生涯。因此ICML表示,自己只能更加谨慎,甚至还会有些保守。

时有错漏,但码农依然爱不释手

其实,虽然ChatGPT经常因为「犯蠢」而被嘲,但自它诞生一个多月来,很多码农的工作习惯,确实被它改变了。

在12月初,ChatGPT亮相后,码农们发现可以用它生成代码,立马沸腾了。

ChatGPT不仅可以回答任何领域的问题,而且生成的答案,有很大的概率非常精确和详细。 比如,当你问到「How to iterate over an keys and values array in Javascript」时,它生成了很完美的答案。

图源:新智元

锦上添花的是,ChatGPT还能通过一个支持性的例子和解释,告诉你这个JavaScript中常见问题的最佳解决方案:

图源:新智元

甚至,还可以用它给代码纠错。

图源:新智元

不过随后,码农们马上发现,ChatGPT生成的代码,其实有不少问题。

ChatGPT会「犯蠢」,背后原因其实很简单——AI的输出,是概率性的。ChatGPT没有任何标记了对错的内部记录,它其实是一个统计模型,这个模型中,是在不同上下文中的语言组合。

而上下文的基础,就是GPT-3训练所用的整体数据集,来自ChatGPT的RLHF训练的额外上下文,prompt和之前的对话,以及很快就会有的反馈。

ChatGPT的答案,本质上就是从构成GPT-3的互联网数据语料库中收集的概率结果。在10秒内,ChatGPT做出了结果的最佳猜测,这个猜测很可能是正确的。

当然,也有错误的概率。

图源:新智元

虽然ChatGPT写代码的能力被很多人诟病,但其实,用还是可以用的。

其实,ChatGPT最合适的定位,应该是编码辅助工具。在ChatGPT的发布方OpenAI看来,ChatGPT的重要用途之一,正是帮助程序员检查代码。

对于开发者而言,它就是日益丰富的工具板中的一个工具。而且,就像任何自学模型一样,ChatGPT也会随着时间的推移,不断学习,不断自我纠正和改进。

很多时候,与其在Stack OverFlow上为相对简单的问题(如何在Flutter中触发HookConsumerWidget的重建)等待几天,不如直接向ChatGPT提问。

因为在ChatGPT上,开发者们有很大概率,得到一个可以用于解决问题的起点——

图源:新智元

*参考资料:

https://www.businessinsider.com/nyc-schools-ban-chatgpt-cheating-concern-grows-2023-1

https://www.theregister.com/2023/01/06/ai_conference_nyc_ban/?td=rt-3a

https://www.reddit.com/r/ChatGPT/comments/104rp2j/my_company_blocked_chatgpt/

本文来源:新智元,原文标题:《学校封杀,大厂禁用,ChatGPT引发大面积恐慌!》

关键词: 语言模型 研究人员 可以使用

上一篇:
下一篇: