讯飞版ChatGPT突然开始内测!我们连夜试了试

灰兔子 站长说 8
科大讯飞版ChatGPT产品,提前交卷了!,就在昨夜,讯飞骤然向开发者提供了内测通道,取名为讯飞星火认知大模型对外开启内测。,,还有个神奇的英文名字Spark Desk,据说有“火花桌面智能助手”的意思。,,讯飞这波操作,多少有点“反向跳票”的意思,因为早在今年2月初,科大讯飞就被曝加紧开发中国版ChatGPT。随后国内大模型关注度陡增后,科大讯飞率先给出了deadline: 5月6日上线产品。,万万没想到,距离正式发布还有10天,他们毫无征兆地开启了内测邀请。,从目前已经获得内测的网友评价来看,有一些人认为效果“超出预期”,但也有人反馈只是“中规中矩”。整体来看,表达效果不错的反馈占多数。,获得内测资格的方式也有点意思,是AI打电话给确认的:,,当然,科大讯飞大模型能力究竟如何,最好还是能实测后再说。,所以第一时间拿到内测邀请的我们,也连夜完成了测试。详情如下:,浅测讯飞大模型,登录进去后,首先看到的是讯飞星火认知大模型的自我介绍:,我能学习和理解人类的语言,进行多轮对话、回答问题和高效地帮助人们获取知识和灵感。,,老样子,还是从语文、数学、代码和逻辑几方面,测测讯飞星火认知大模型的综合能力。,那么我们就先从语文能力测起。,考虑到现在弱智吧已经成为ChatGPT时代下的Benchmark了,所以先测试大家想看的环节。,结合下科大讯飞的特点,我们抛给讯飞星火了一个地狱地域笑话。,没想到,它是懂安徽人的。,,△我们去了图片ID水印,可能导致截图文字不清楚(还望大家理解),再来一个脑筋急转弯试试。,讯飞星火的回答非常一本正经:首先表示“玉皇大帝是否存在这个事情不是我AI可以下结论的”,这个问题驴唇不对马嘴,玉皇大帝住哪的设定和现代科学没有关系。,但你要非要我说点啥,我只能说或许玉皇大帝可能在地球上空吧。,,不过这段回答里也有个小bug,即在东亚宗教信仰里天界包括天堂和神界(?),实际上,在一些弱智吧问题里,讯飞星火的表现往往是懂了但没完全懂。,比如它知道焚书坑儒的事,但是又解释不清楚衍生出来的地狱笑话。,,不过在基本语文能力上,讯飞星火的表现还是值得关注的。,比如给出第一句,补充写一首鲁迅风格的诗歌:,,提的要求它都基本满足了,不过紫菜汤为啥曾是渔民的希望?是我理解不了AI的深意了。,换成周杰伦的风格呢?,表现也还不错,马上替换了后三句的内容。怀念童年也是周董歌里经常出现的主题了。,,古文中的对对子,它也能对仗比较工整,表达意思上也没出什么问题。,我们给的上联是:福慧双修须及物。,,再试试成语接龙:,,如果它接错了,提醒下能改正回来,也表现出了一定的多轮对话能力:,,创作的洋葱新闻,也确实有那感觉了~,,续写的恐怖故事也有点水平:,,那么再看看数学能力?,基本的加减法、鸡兔同笼应对起来都很轻松了。,,,不过在高数方面还是有点困难,让它求解:f(x)=x(x-1)(x-2)(x-3),f’(0)=?,即便在我们提醒它算错了情况下,修正起来也比较困难(正确答案为-6)。,,OK,接下来就轮到代码能力了。,我们给的要求是: 帮我写一个计算器程序。,确实完成了一个四则运算的简单计算器,甚至还有命令行操作界面:,,除了有一个小bug(函数外不能return)外,简单修改后可以运行。,,另外对于Python缩进的空格与tab之争,这只AI是个空格党。,这里贴上代码块,大伙儿可以试试:,#coding=utf-8,#量子位注:AI没生成这句,根据不同运行环境可能需要加一下,# 定义函数,实现加法运算,def add(x, y):,    return x + y,# 定义函数,实现减法运算,def subtract(x, y):,    return x - y,# 定义函数,实现乘法运算,def multiply(x, y):,    return x * y,# 定义函数,实现除法运算,def divide(x, y):,    if y == 0:,        print("除数不能为零!"),        return,    else:,        return x / y,# 主程序,print("欢迎使用计算器!请选择需要进行的操作:"),print("1. 加法"),print("2. 减法"),print("3. 乘法"),print("4. 除法"),choice = input("请输入操作编号(1/2/3/4):"),num1 = float(input("请输入第一个数字:")),num2 = float(input("请输入第二个数字:")),if choice == '1':,    print(num1, "+", num2, "=", add(num1, num2)),elif choice == '2':,    print(num1, "-", num2, "=", subtract(num1, num2)),elif choice == '3':,    print(num1, "*", num2, "=", multiply(num1, num2)),elif choice == '4':,    if num2 == 0:,        print("除数不能为零!"),        # return (量子位注:这里有bug,注释掉就可),    else:,        print(num1, "/", num2, "=", divide(num1, num2)),else:,    print("非法输入!"),生成表格能力也是有的,同时可以按照要求修改表格:,,,分析基本逻辑问题也OK:,,而且我们感觉讯飞星火的回答,总是很正经,对于脑洞大开的问题也是淡定的“总分总式”回答。,,当然也被绕到过沟里,回答出了“贾母找人搬机器”的瞎话:,,以上就是我们对讯飞星火的一个浅浅测试。,能力水平已经看到了,而大模型本身让人好奇的,还有它的技术细节~,提前扒扒它的“模型底细”,毕竟讯飞大模型还没正式发布,所以我们试着先从它自己这里“探探口风”。,看看能不能通过问相关问题,提前摸出一些关于它的资料来。,先是名字由来。讯飞星火认知大模型给出了技术向、公司向和文化向三个方面的回答,有议论文内味了:,,再仔细追问一下为什么“星火”和“心宿”有关,好家伙,话题逐渐占星学了起来:,,这里我们调戏一下大模型,问问科大讯飞CEO是否喜欢占星学, ,,回到正题。那么,讯飞星火认知大模型的训练数据来源、模型参数量、联网状态如何?,首先是关于模型训练数据的来源。看起来资料还比较丰富,目前也还在不断更新中:,,所以,讯飞大模型是否和ChatGPT一样,用了RLHF呢?它自己的回答竟然是没有:,,那么接下来,是关于模型参数量的问题,这里讯飞大模型回答得也比较模糊。,而且,给出的模型参数量竟然只有数亿个?(要知道,GPT-2模型参数量都有15亿),,最后,是关于模型能否联网的问题。,看起来,它还不会实时联网,关于网易和暴雪的新闻只能追溯到几年前的消息:,,用户也不能通过指令直接让它访问某个网站,查询特定信息,应该是加了某些限制:,,不过有意思的是,它还是声称自己需要联网工作,以访问特定信息数据:,,据讯飞星火认知大模型介绍,目前它的训练数据还在继续更新。,,换而言之,就是还在继续迭代,估计在正式发布前还会更新一版模型。,目前来看, 科大讯飞的这个讯飞星火认知大模型,表现已算不错。,而且要知道,讯飞原计划给出的交卷时间是5月6日,现在突然发布内测,相当于不仅没跳票,还“反向跳票”了一波。,这样来看,除了科大讯飞在这NLP和认知智能方面确实有很深的技术积累以外,也说明,讯飞的技术和工程团队实战能力值得关注一波——不仅能打硬仗,而且“说到做到”。,现在距离正式发布还有10天,你期待讯飞的大模型迭代出什么新效果?

标签: #ChatGPT#科大讯飞