This topic has been archived. It cannot be replied.
-
枫下沙龙 / 谈天说地 / 对于AI俺有一个疑问, 现在的OpenAI都是通过网上海量资料的学习来获得知识,能够回答问题。但网上的资料就一定是对的/正确的吗?如果到有一天,网上资料里说地球是平的观点的数量多过说地球是个球体的观点,那是不是地平说就是正确的了呢?这还是只是一个小小的问题。其它那些更复杂更纠缠的问题就更不好说了。还是说AI在被灌输知识的时候,某些知识是公理/原理/真理,不可动摇不可质疑的呢?那YSL也是不允许质疑的呢。
-ydwrzzh(行人);
2023-11-7
{372}
(#15759954@0)
+2
-
参考习主席的好学生:文心一言。 所谓:龙生龙,凤生凤,老鼠儿子会打洞。
-ff2021(码农闰土);
2023-11-7
(#15759959@0)
-
在政治相关的问题上的确是这样.但是很多知识是普遍的真理, 文心一言的回答也和chatGPT差不多.但是ChatGPT比文心更高级一等,GTP可以辨别伪命题,而文心却还没这能力.
-tracyd(等待明天);
2023-11-7
(#15760030@0)
-
如果AI真的像人,那么一定是有立场的,哪怕他提供的资料再详尽。
-897102(净坛使者);
2023-11-7
(#15759966@0)
-
OpenAI啥时说保证答案正确呢?都是说是陪你聊天,不如谷歌搜索有多个答案供你参考
-winonca(小温);
2023-11-7
(#15759970@0)
-
所以俺觉得咱们以前以为的地球村,是指全球化,整个地球上的人们都能分享同样的观点/看法/意识形态。现在看来,所谓地球村,在后面要加上一个S, 是“地球村s" , 是真的成了一个个相互在观念上老死不相往来的小村子,圈地为王罢了。
-ydwrzzh(行人);
2023-11-7
(#15759984@0)
-
确实如此。现在ChatGPT 训练 模式是基于一个假设,即大部分参与的人都是认真问答,而大部分人的思维认知(或网上资讯)都是健康的,少数捣乱分子的问答引起的负面效应会被稀释掉。没这个大前提的话,没法好好训练。
-letempsdescerises(越来越懒得说话);
2023-11-7
(#15760002@0)
-
OpenAI雇佣了一个非洲国家的输入员,对AI进行数据输入以及训练. 我们看到的是已经调教好了的数据,而不是网上论坛上七嘴八舌不知道对错的答案. AI的数据来源很重要.
-tracyd(等待明天);
2023-11-7
(#15760018@0)
-
用集体记忆来训练AI,效果刚刚的
-zx1123(123);
2023-11-7
(#15760155@0)
-
如果你能分辨正确和错误,AI也能
-maplus(马+);
2023-11-7
(#15760029@0)
-
让AI学会和稀泥更容易
-zx1123(123);
2023-11-7
(#15760159@0)
-
问题是谁来定义正确和错误啊?我认为地球是圆的。但也有很多人从他们自身的主观感受出发认为地球是平的。如果某一天认同地平说的人数大大地多过地圆说,那AI会怎样判断呢?
-ydwrzzh(行人);
2023-11-9
(#15763149@0)
-
chatgtp就很好,我问它民主国家有缺陷吗,它回答,是的,任何政治体制都可能存在一些缺陷。民主国家通常注重人民参与和权力分散,但仍然可能面临问题,如腐败、政治僵局、和权力滥用等。重要的是在不断改进和强化制度,以解决这些问题。
-sammywang(地主管家);
2023-11-9
(#15763153@0)