Telegram Group Search
这figure也惨了点(
这个还不错。
虽然不是特别喜欢OLM的一些表现手法,但是整体来说还是front runner。最后的cliff hanger有点略大条了。
https://www.group-telegram.com/laoself/9982

其实就是典型的NIMBY (Not In My BackYard) 的思考。

两者不可兼得,但是作为研究者,我还是希望社交媒体的数据能够更开放,而不是都被paywall在大公司里,而且你知道他们还是会交易和用这些数据的。

所以我不在意我的数据是否用来训练AI,Heck,我都用我自己频道的数据训练AI...


其实我们也可以用另外一个角度看这个问题。不喜欢Twitter(X)的人,有不喜欢把数据都paywall起来的我这样的人,也有希望数据不被用于AI训练的人,这其实可能根本就是两个利益不同的群体,但只是都对大社交媒体公司的做法不满罢了。
https://www.group-telegram.com/CE_Observe/36806

我是真心觉得现在的一部分宣发真是有大病。

1. 所谓的“研究”是个2023级的斯坦福MBA学生主导的,论文发在Arxiv上,毫无可信度。

2. 论文中的内容和其推文中的各种“结果”几乎完全不相关,也无法证实。

3. 论文的数据来源是企业Git repo,但是仅限Java。我想问下现在干活儿的程序员,还有多少用Java的哦?是我火星吗?这样去选数据,难道不会偏向年纪大一些的,不干活儿的人吗?

4. 论文说选了70个commit,让expert去评判这些commit的所需时间、难度、程序员专业程度等指标,然后说自己设计了一套“自动评价体系”,但其实就是平均了所有专家voter的打分,最后还煞有介事的说你看我的model和专家的评价是highly correlated的,那不废话吗??

5. 就算是论文的所述内容完全正确,专家的打分完全无偏差,也盖不住这人在推特里大放厥词所涉及的那么多Assertion。

吐槽的地方太多,但最让人觉得恶心的,还是国内小编拿了条推文过来就过来说事儿,一群听众嚼着三手口香糖还津津有味的听着的事实。
有的时候思考,如果AI真的有一天超越了人类的控制,AI真的会反过来灭绝人类吗?

去消灭一个对其已经不存在威胁、缺乏理性、生存方式和需求完全不同的生物种类,真的有啥意义咩....
这几个月里模型的增长开始沉静化一些了。

其实也不是坏事儿。
2024/12/01 11:50:54
Back to Top
HTML Embed Code: