孟繁岐的这个毕设内容,院内按正常的流程肯定是审不了了,大部分人没能力接这个活。
这些东西完全都是新领域的开创,根本没有什么此前的领域内专家可以来做评审。
稍微有能力,熟悉自然语言技术的那部分人,也没什么信心,心里虚得很。
一说起这件事情就连连摆手:“快别说了,这事情吃力不讨好,爱找谁找谁去吧。”
开什么玩笑!按照现在网络上盛产段子的节奏,接了这個活势必要被无限调侃。
等到时候在不了解情况的人嘴里,【他也能接这个活?】,【外行来评审专家了!】这种系列的段子搞不好会层出不穷,这对院校内的老先生们来说不大容易接受。
加上孟繁岐的答辩时间又延迟了一个月的时间,院内便干脆将这次答辩搞成了对外开放展示的形式。
将答辩搞成了演讲展示,这在历史上应该说是极其罕见的。
至于通不通过,那完全就是走个形式。
你还能挂了他不成?
孟繁岐这段时间的成果,折算博士都能毕业好几十个了,没人会考虑过不过的问题。
“没想到大家这么热情啊。”孟繁岐走到台上,拨弄了一下麦克风的位置。
他有料到整个阶梯教室会坐满,但没想到隔壁四五间竟然也坐满了。
来了看投影,岂不是还不如直接看转播?
至于台下第一排坐着的那些大佬们,孟繁岐也完全没有料到,一个个都是如此级别的人物了,竟然也会来现场凑这个热闹。
谁让硅谷距离斯坦福太近了呢,几公里的路程,让大佬们也赶着来看戏。
除了旁观的技术爱好者和硅谷大佬们,媒体当然也涌入了不少。
正式开始之前,也有人好奇地询问孟繁岐,不管是技术成就还是个人财富,他都已经达成了。
为什么还要执着于学校里的这点学位呢?
在辍学成风的硅谷当中,孟繁岐坚持在学校获取学位的行为反而算是一个异类了。
“我这其实也是在遵循前辈们的建议,我看比尔盖茨先生,马斯克先生,他们自己辍学归辍学,但从来都不建议别人这么做。于是我就想着,我应该听取长者们人生的建议,毕竟他们在视野和学历上都强过我不少。”
许多媒体总是抓着部分成功人士辍学的事例大吹特吹,却避而不谈他们先天就拥有多么厚实的家底。
这倒也是人之常情了,在介绍传奇人物成功经历的时候,总是会有意无意地夸大他们个人的努力,略去其背景、身世的巨大作用。
孟繁岐觉得,这种情况可以用《火影忍者》式叙事来精准概括。
这些传奇人士仿佛鸣人一般,被渲染成努力的天才,各种成就成绩都全凭自己。
从吊车尾成长为世界英雄,多么的励志。
可等到大家仔细探究,这才发现他不仅是前任大统领的孩子,竟然还特么是仙人转世。
这就让最初的那种对努力和平民吊车尾的渲染显得非常讽刺了。
当然,并非所有人都是依靠家世与背景,只是这个情况在计算机和人工智能领域尤甚。
“个人用计算机才普及二三十年,起初家里用得起电脑的不说非富即贵,至少也是中产之家了。”孟繁岐曾经也关注,乃至统计过这方面的事情。
像马斯克,比尔盖茨等一票硅谷科技天才,全都是十来岁左右的时候就在家里自己鼓捣个人电脑玩。
对于家庭情况更差一点的人来说,家里完全负担不起,这种东西就不存在于他的世界里。
天赋?根本都没到拼天赋的时候呢!
“好了,不拿前辈开玩笑了。”与前排的大佬们稍微互动了一下,说个几个段子,孟繁岐还是比较严肃地回答了这个问题。
“我个人觉得,现在世界上关注我的人还是蛮多的,尤其是年轻人,他们更热衷于新技术新东西。新的产业中机会与危机并存,硅谷的辍学生当中,像坐在前排的前辈们这样成功的终究还是少数。”
“我坚持读下去,除了弥补自己高考成绩一般的遗憾,也是为了鼓励年轻人们读下去。持续地钻研新的技术,结识更多的同好,而不是因为一时的商业可能放弃了这条道路。”
“对于普通人来说,读完学位是最稳定的选择。对于我来说呢,唯有将这条道路走到底,才能够真的在这个领域中屹立不倒。”孟繁岐对自己目前的技术进展还是比较有危机感的。
生成时代之后,直接复刻以前的技术,拿来主义已经没那么好用了。
孟繁岐与团队开始越来越多地在研发过程中遇到各种他未曾遇见的技术问题,他也越发依赖其他技术人才的专业知识。
资本或许是一种控制公司的手段,但失去了技术视野和判断之后,就连公司本身都有可能直接消失陨落。
即便全权掌控,又有什么意义呢?
“还是给自己的调门起高了。”孟繁岐现在研究技术最大的动力是很怕自己再过几年之后晚节不保,对于技术中真理的追求反而还在其次。
“话不多说,我直接进入正题,我想在座的各位都是为了看ChatGPT模型和训练的细节而来的,而不是为了跟我有关的琐事。”媒体方面还有人想要继续追问一些其他的什么,但孟繁岐选择了直奔主题。
“ChatGPT仍旧是基于我此前公布的GPT系列架构,只是层数更深,每一层的宽度也有了很大的提升。350亿的巨额参数量使得它能够处理更复杂、更具上下文的任务和问题。这种参数的规模对于知识的存储是很有裨益的。”
“模型支持多语言,尽管在某些语言上的表现可能会相对较差,这主要是因为训练数据量的差异而导致性能有所不同。”孟繁岐此前在AI小镇和直播当中只展示了ChatGPT在中英文方面的能力,这个消息的公布,无疑又是一枚重磅炸弹。
“卧槽?单个模型就能做到多语言??这也太快了吧?”坐在底下前几排,最近在搞人工智能方面创业的公司老板们都听懵了。
“之前不都是中文版BERT,印尼语GPT之类的吗?我没听错吧??”
场中听众们的不解是有依据的。
孟繁岐开源了初代BERT和GPT代码以及参数模型之后,世界各地的的研究人员们为了研究又或者是其他用途,各自收集了自己的数据集。
在过去的半年当中,基于孟繁岐模型参数做出的其他语言、其他任务版本的BERT和GPT数不胜数,人们的许多需求都得到了满足。
不少相应的公司应运而生,专为解决这些难题。
与此同时,大家也已经熟悉了这种【每个任务每个语言都需要单独一个AI模型】的模式。