跳转到内容

维基百科讨论:機械人方針/存檔二

页面内容不支持其他语言。
维基百科,自由的百科全书

提议限制在维基百科使用ChatGPT及类似工具

最近几个月爆火的ChatGPT可以按照人类的提示生成文本,并且能根据人类的意见进行修改。但其生成的文本常常似是而非,看上去没有问题而实际上却含有事实错误,因此如果在条目中大量使用,可能会具有非常恶劣的影响。

StackOverflow已经禁止使用ChatGPT生成的内容,因此,中文维基百科社群是否应该跟进?

可行的方案:

  1. 完全禁止使用ChatGPT生成的内容编写条目;
  2. ChatGPT生成的内容须经过人工审阅确认无问题之后才允许出现在条目中。

相关链接:

以上。--Diskdance 2023年1月28日 (六) 01:42 (UTC)

原則上支持,但不論是禁制還是審閱如何自動分辨為需要審核或禁止?人工難以審核每一個新頁面和版本差異確認沒有AI編寫內容。--西 2023年1月28日 (六) 01:47 (UTC)
以Stack Overflow為例,他們唯一能實際做的是在有用戶被發現疑似使用ChatGPT的時候才予以禁制,無法杜絕有關內容的發佈。您的兩個建議方案都涉及審核所有ChatGPT寫的內容,除了一般的舉報外如何做到?還是只能跟現在的侵權提報一樣有人發現才報?--西 2023年1月28日 (六) 01:50 (UTC)
不认为您的方案可行。ChatGPT等工具并不像Google Translate那样输入和输出总是相同,很容易受到使用者的影响,不是能够直接禁止的。社群似乎也不具备人工审核每一笔编辑的能力。若要求使用此类工具的用户主动声明倒是可以,但也定然不是所有用户都会主动声明。同时,用户也可能是生成后自行润色,将其质量提升到可接受的标准后再发布。—— 月_樱_雪 (留言) 2023年1月28日 (六) 01:54 (UTC)
1不实际可行,缺乏有效检测手段。2在当前意义不大,条目本应被巡查,没有必要“歧视”。如有滥建、批量建立发生,按寻常规则处理即可,判断是否出自AI及质量如何没有依据。对要求申报表示支持,参考机器人有偿编辑等方针,但落实存难度会变成君子协定。--YFdyh000留言2023年1月28日 (六) 03:09 (UTC)
这是恶意推定,我不知道使用ChatGPT造成何种破坏或者违法哪一方面的规则。--Cat on the Mars 2023年1月28日 (六) 03:56 (UTC)
这个时候就得搬出User:0xDeadbeef在英维举出的例子了。以下是使用ChatGPT生成的关于Rust for Linux的条目片段(方便不懂相关领域的编者,部分术语我自己添加了内链):

Rust for Linux是向Linux内核项目提交的一系列补丁的总称,这一系列补丁让Rust语言可以用于编写内核组件。该项目始于2017年,由一群对将Rust用作系统底层开发感兴趣的志愿者发起。

Rust for Linux is a series of patches to the Linux kernel that adds the Rust programming language as a second language for writing kernel components. The project was started in 2017 by a group of volunteers who were interested in exploring the use of Rust for low-level systems programming.

早先的补丁是与Linux内核维护者以及开源群体一同合作开发而成的。这些补丁聚焦于将Rust的内存安全以及并行特性带入内核当中,同时提供对已有的C语言代码基础的相容性。

The initial patches were developed in collaboration with the Linux kernel maintainers and other members of the open-source community. They focused on integrating Rust's memory safety and concurrent programming features into the kernel, and on providing compatibility with the existing C codebase.

在2018年,这些补丁被合并至Linux内核代码库当中,令Rust成为第一门除C语言之外,获官方支持可以用作编写内核组件的语言。对于Rust语言社群来说是里程碑式的成就,展示了Rust语言可以胜任内核级别编程的需求。

In 2018, the patches were merged into the mainline Linux kernel, making Rust the first programming language other than C to be officially supported for writing kernel components. This marked a significant milestone for the Rust community, as it demonstrated the language's ability to handle the demanding requirements of kernel-level programming.

自Rust语言加入至Linux内核之中起,Rust for Linux项目持续发展,当前聚焦于改善Rust在内核中运作的兼容性以及效率。该项目还吸引了其他操作系统开发者的注意力,令他们对将Rust语言用作内核级别编程所带来的潜在优点感兴趣。

Since its inclusion in the Linux kernel, the Rust for Linux project has continued to evolve, with ongoing work on improving the compatibility and performance of Rust in the kernel. It has also attracted the attention of other operating system developers, who are interested in exploring the potential benefits of using Rust for kernel-level programming.


我就问一句,这么有模有样的段落你能发现这里面捏造了好几个关键事实吗?你们还觉得这不会造成破坏吗? --MilkyDefer 2023年1月28日 (六) 09:12 (UTC)
注:我自己能注意到的捏造事实如下
  • Rust for Linux项目起始于2020年,不是片段中宣称的2017年;
  • Rust for Linux项目代码合并至Linux内核是在2022年,不是片段中宣称的2018年;
  • 当前Rust for Linux还没有达到有闲心改善兼容性和效率的地步,当前只有最基础能让编译顺利通过的部分。
有这么方便的工具那些喜欢搞鬼祟破坏的LTA们简直笑开花了啊。 --MilkyDefer 2023年1月28日 (六) 09:16 (UTC)
另外不要忘记维基百科是自然语言处理领域重要的数据集来源,我们有义务不要搞出垃圾进入维基百科又被提取成训练垃圾生成器的原材料的事情。--MilkyDefer 2023年1月28日 (六) 09:21 (UTC)
我认为鉴于ChatGPT的现状,应该将它按对待人类新手的方式处理,事实上就内容而言我们也无法区分新手和机器人之间的区别,何况你站已经封禁了绝大多数代理网段,仅仅凭借实验内容无法证实其破坏性或者真的有人会用来破坏,加上理论上ChatGPT还在使用旧的数据集,分辨拙劣过时内容远远比分辨是否是高级AI作品更加具备可行性也更加重要,暂时没有必要就这件事因“人”立法,如果需要修改方针必须证明现有方针在哪一方面无法满足你的需求(包括劣质训练集,还不如去改进你站存废积压)。--Cat on the Mars 2023年1月28日 (六) 09:38 (UTC)
再新手也不会写出金玉其外败絮其中的内容,真正的新手是写出来读出来就像是新手。你说的这不是新手,是破坏者。--MilkyDefer 2023年1月28日 (六) 09:44 (UTC)
你维的毛某人浪迹天涯多少年了,这种抓不出来其他更是抓不到,你维有长过记性了吗,我说过不要因人立法,不是因为一会儿折毛,一会儿ChatGPT,封个把人就能解决的事情,ChatGPT就我的实际体验还不具备单独作案的能力,我刚刚想要让他搞点引用都得费神很久,像这么一大段无来源内容理所应当就是劣质内容,巡查员应该有自己的判断。----Cat on the Mars 2023年1月28日 (六) 10:01 (UTC)
本人基本同意CatOnMars的观点。--0xDeadbeef留言2023年1月28日 (六) 10:17 (UTC)
至少举例中如果缺少来源(或者来源能通过编辑者审阅并确认过的话),还是能区分出行文问题。需要注意但不至于需要规例。——Sakamotosan路过围观 | 避免做作,免敬 2023年1月29日 (日) 00:41 (UTC)
(!)意見 我认为把可供查证做好就能避免大部分问题。--Taeas留言2023年1月28日 (六) 12:10 (UTC)
提问:ChatGPT是否会造成目前方针无法处理的破坏?如果有,是否说明目前的方针存在漏洞?--Steven Sun留言2023年1月29日 (日) 03:44 (UTC)
WP:破坏处理。 ——魔琴 留言 贡献 新手2023计划 ] 2023年1月29日 (日) 04:34 (UTC)
(+)支持,MilkyDefer给出的例子已经很明显了,用于破坏实在是太过简单。--BlackShadowG Slava Ukraini! 2023年1月29日 (日) 04:27 (UTC)
支持禁止,列入行为方针即可。 ——魔琴 留言 贡献 新手2023计划 ] 2023年1月29日 (日) 04:32 (UTC)
我是持怀疑态度。首先是无法检测、无法证明。任何一段文字,就算GPT检测器说是GPT写的,你无法看到那个人把这段文字从GPT复制下来贴上了。第二,ChatGPT用法多种多样,不应该所有用法都不能用。我特别喜欢叫他帮我找错别字,和从其他语言翻译成中文。应该还有很多无破坏性的例子。Last but not least,现有规则已经可以cover ChatGPT造成的破坏。难道现在加一条说ChatGPT做好事也不行?--Gqqnb留言2023年1月29日 (日) 13:01 (UTC)
我倒是有点想开了,维基百科又不是检查你们做大学作业,有些学校会怀疑是不是你自己写的,你只要写出来了,巡查员检查过了,我管你是怎么写的。我不明白有些人的逻辑,只要这种东西能够用来破坏,「很容易用来破坏」,那这种东西就一定要禁止,是不是你家做菜以后都不要拿刀了。且不论枪支弹药的道德属性,枪支弹药尚且可以用在正道,炸药都可以弄出个诺贝尔奖,你维连ChatGPT的影子都没有看到,便十分“有头有尾”有罪推定宣判ChatGPT死刑,似乎认定了默认利用AI的都是坏人一样,每个人在你维用一次ChatGPT就好像从你维的大厦下面偷一块砖,连基本的「假定善意」都丢掉了。借用鲁迅的一句话,「岂但乡下人之于雷峰塔,日日偷挖中华民国的柱石的奴才们,现在正不知有多少」,而这等这种视若无睹的理所应当更是令我更是匪夷所思。----Cat on the Mars 2023年1月29日 (日) 13:26 (UTC)
感觉类似机翻:内容提交人自己知道润色就OK;当然对初次参与维基百科的人,最保守的说法还是「禁止机翻」。--洛普利寧 2023年1月29日 (日) 13:31 (UTC)
翻譯指引有一句「請勿使用機器翻譯翻譯條目」,在後面加一個「或人工智慧機器人」之類的,賦予禁止使用相關工具之授權法源就行了。—— Eric Liu 創造は生命(留言留名學生會 2023年1月29日 (日) 14:21 (UTC)
但提案不限于翻译,也包含创作。不过,如果创作后能做到可供查证,感觉没太大问题。--YFdyh000留言2023年1月29日 (日) 14:38 (UTC)
機械人方針適用於所有用以編輯維基百科的计算机程序或脚本,包括全自動、高速運作以及協助編者的工具。」
按我的理解,现行机器人方针完全适用于AI程序,要改也轮不到翻译指引。----Cat on the Mars 2023年1月30日 (一) 09:23 (UTC)
確實,一時間沒有想到。不過兩邊都寫亦無大礙,或可相呼應。—— Eric Liu 創造は生命(留言留名學生會 2023年1月31日 (二) 03:06 (UTC)
我们来关注这么一个问题。对于一个编辑经验不足的新编者而言,创建条目时候的提示信息都有哪些呢?关注度、非广告宣传、著作权、参考文献、WP:NOT,以及一个指向「其他」的链接。不论是机翻还是ChatGPT都没有足够可见的提示。巡查员一看,不行,从犄角旮旯里翻出一个方针的一个犄角旮旯的句子出来,新手直接炸毛了。--MilkyDefer 2023年2月3日 (五) 13:37 (UTC)
你应该去改F&Q而不是去改方针,现在的方针指引堪比屎山代码,我觉得与其改机器人方针内容,还不如改名字一目了然,以前叫他机器人,其实只是自动化程序,以后必然还会有AI程序,它这名字早就已经赶不上时代了。----Cat on the Mars 2023年2月3日 (五) 15:45 (UTC)
方针指引太多搞得管理员都不知道自己正在重复立法。----Cat on the Mars 2023年2月3日 (五) 15:51 (UTC)
我的意見本來與Ericliu1912相近的,但考慮到YFdyh000所言在理,我更傾向要求任何人確保他們在用AI寫東西後必須先自己校對過才在維基百科發佈,畢竟相關工具我自己感覺不是完全不能用,但一定要自己下手調整AI寫出來的文本,這跟維基百科内置的機翻工具是一個道理。@YFdyh000Ericliu1912:如果“似是而非”的文本符合“胡言亂語”的定義的話,這其實就是G1的範疇。Sanmosa Συ γάρ μοι και μοίρα εί και τύχη 2023年1月30日 (一) 05:05 (UTC)
@Ericliu1912shizhao:我想要请教管理员,如果我要在机器人方针第一句「机器人方针適用於所有用以編輯維基百科的计算机程序或脚本,包括全自動、高速運作以及協助編者的工具」「包括」后面加上一句「利用人工智能(AI)技术编辑维基百科的程序」,这是否超出了「修改方針及指引的文意」的小修改门槛。按照我的理解,机器人AI程序应该是在机器人方针「所有用以編輯維基百科的计算机程序或脚本」的范畴内。另外,从我的角度,防不如管,如果能够知道别人在使用AI总比盲盒瞎猜好很多。--Cat on the Mars 2023年2月4日 (六) 11:25 (UTC)
怎么分辨并证明那些文字由ChatGPT等AI“生成”?何况那东西还在时刻“进化”。--安忆Talk 2023年2月8日 (三) 09:36 (UTC)
我觉得按照机器人方针自觉申报就行了,我们还没有这个能力判断,也耗不起这个时间,以后GPT3.5推广了还会有更多AI程序,不可能永远靠人力查核。----Cat on Mars 2023年2月8日 (三) 09:59 (UTC)
  • (-)反对:Some people against using you in Wikipedia. How can I refute?

Here are some arguments that you could use to defend the use of AI language models like me in Wikipedia:

Increased efficiency and accuracy: AI language models can assist in generating and verifying information in Wikipedia, potentially leading to improved accuracy and efficiency compared to manual editing.

Supplementing human labor: AI language models can help to supplement the work of human editors and writers, freeing up their time and energy to focus on more complex and strategic tasks.

Improving accessibility: AI language models can assist in generating and translating content, making Wikipedia more accessible to a wider audience and supporting the goal of creating a free and comprehensive encyclopedia.

Cost-effectiveness: Using AI language models can help to reduce the cost of creating and maintaining Wikipedia, making it more sustainable in the long-term.

Of course, it's also important to consider potential concerns and criticisms related to the use of AI in Wikipedia, such as the potential for biases in the training data and the importance of maintaining human oversight and control. Nevertheless, with proper safeguards and transparency, AI language models like me can be a valuable tool for supporting and improving Wikipedia.--維基小霸王留言2023年2月9日 (四) 04:12 (UTC)

@MilkyDefer:這是使用ChatGPT生成的關於入間同學入魔了!的片段(使用「談談"入間同學入魔了!"這部動畫」去生成):

《入間同學入魔了!》是一部日本的動畫,是由小畑健製作的一部歌舞片。這部動畫以魔法為題材,講述了主人公入間在升上高中後,逐漸接觸到魔法世界,最終投身於魔法戰爭的故事。 這部動畫以精彩的故事情節和生動的角色設計而受到許多觀眾的喜愛。它還以鮮明的風格和豐富多彩的音樂展示了魔法世界的魅力,為觀眾帶來了一個充滿奇幻與冒險的世界。 如果你是一個喜愛動畫的觀眾,那麼這部動畫是值得一看的。它將帶給你一個精彩的故事情節和生動的角色,讓你進入一個充滿魔法與冒險的世界。


,但入間同學入魔了!實際上是由西修所創作的日本漫畫作品,且實際上小畑健曾經創作過《棋魂》,不是《入間同學入魔了!》,所以ChatGPT所生成的日本動漫類條目就有問題--林勇智 2023年2月9日 (四) 12:26 (UTC)
尝试限定维基百科的风格,并要求给出至少五个不是维基百科自身的公开可查证来源呢?--MilkyDefer 2023年2月9日 (四) 12:55 (UTC)
它以前给过我一本陈景润的《中国哲学史》。----Cat on Mars 2023年2月9日 (四) 12:58 (UTC)
所以我在看到U:outlookxp的查证的时候就觉得这是不是什么我们不知道、并且还在保密中的高级AI。----Cat on Mars 2023年2月9日 (四) 13:02 (UTC)
ChatGPT有點蠢,機翻都比它靠譜點。--日期20220626留言2023年2月9日 (四) 13:09 (UTC)
用它机翻还是比较好用的。----Cat on Mars 2023年2月9日 (四) 13:24 (UTC)
大概是題外,看到提起維基內建機翻以及用機翻後要校正的內容等等的、那個啊今天凌晨逛近期變更的時候發現了不列顛共產黨,有興趣看哪位用戶新增的請查看編輯摘要以及貢獻,該使用者共新增了三個條目,因為實在是沒心力了所以只有掛了模板,看看此人會不會良心現前自己回來改,不改的話之後就刪除,個人感想是遇過幾次用機翻的用戶,原則上大概也不知道自己開了什麼箱,只是翻譯出來的結果乍看滿意好像吐出了象牙,奢望他們自己配備校對能力可能真的以為人本善良。--Mafalda4144留言2023年2月9日 (四) 13:37 (UTC)
我尝试了一下改善翻译,然而并没有什么用处--Cat on Mars 2023年2月9日 (四) 14:17 (UTC)
這玩意據方舟子測試,簡中資料來源自稱是用百毒的樣子。不過其他人有不同的結果。--S叔 2023年2月10日 (五) 02:19 (UTC)
显然ChatGPT自身生成的内容并不能作为证明其无害的依据。--Diskdance 2023年2月9日 (四) 15:04 (UTC)
好像有人测试医学类条目,ChatGPT会自己编造PubMed参考文献。另外不知道其在翻译条目中是否也会编造内容。关于其翻译质量,腾讯的一个实验室最近在arXiv上发了一篇论文[1]。建议先行禁止。--Kethyga留言2023年2月10日 (五) 12:41 (UTC)
(+)支持明文禁止。——WMLO留言)。 2023年2月10日 (五) 21:43 (UTC)

《来自风平浪静的明天》(Your Name)是一部由新海诚执导的日本动画电影,于2016年在日本上映。该片以美妙的动画和复杂的人物关系角色,受到了广泛的好评。

故事讲述了两个生活在不同城市的高中生,偶然发现自己的身体可以穿越时空互换。随着故事的发展,他们不断努力寻找对方,以解决自己的身份困惑和生活困境。

该片的动画效果非常出色,景象壮丽,配乐优美。此外,它也提出了一些深刻的社会问题,如家庭、友情、爱情和对未来的希望,对观众产生了深远的影响。

总的来说,《来自风平浪静的明天》是一部非常优秀的动画片,值得每个动漫爱好者去观看。


感觉完全是按照《你的名字。》的内容去生成的 囧rz……--忒有钱🌊塩水あります🐳留言2023年2月12日 (日) 19:58 (UTC)

  • (-)反对:所有機械人輔助的編輯應該予以允許,但人類用戶必須在發布前核對內容。--The Streif留言2023年2月13日 (一) 04:21 (UTC)
  • @忒有钱:建議在發布到維基百科前先檢查chatGPT所生成的內容是否有問題(如事先閱讀或觀看內容(例如《入間同學入魔了!》漫畫或PubMed文獻))--林勇智 2023年2月14日 (二) 13:40 (UTC)
  • 我也試了一下,看起來效果不佳,因為他生成的內容很容易有編造和過度聯想的狀況,少至生成的內容真偽查核困難。我的測試事先給ChatGPT閱讀相關文章,再請他整理成維基百科條目:請閱讀下列文章並將其整理成一篇中文維基百科條目,並且使用wikitext原始碼編寫條目,須包含內部連結和資訊框。(貼上wikia:w:c:danmachi:Wiene的全部內容)
    ChatGPT給了以下回答(內部連結和資訊框是ChatGPT加的,我一字未改)
    以下是使用 wikitext 原始碼編寫的薇妮的中文維基百科條目:
薇妮
角色设定信息
物種人鱗蛇
性別女性
出生地牢中層
所屬赫斯提亞家族

薇妮(ウィーネ)是一位神秘的人鱗蛇女性,生於地牢的中層。她以其琥珀色的眼睛和長銀藍色的頭髮以及身體上數個地方的鱗片而聞名,還有額頭上價值高昂的「人鱗蛇之淚」紅寶石。

在留在赫斯提亞家族期間,薇妮穿著由貝爾·克拉內爾提供的「沙馬蘭德毛衣」,以隱藏她作為怪物的身份。

薇妮有講話的能力,這在怪物中是很罕見的,她以善良的性格而聞名。她與赫斯提亞家族特別是貝爾和春姬產生了依戀。儘管她有善良的性格,薇妮最初有著怯弱的本質,但在她重生後,她變得更加勇敢。

在外貌上,当薇妮救了一个小男孩时,她的身体从背部长出了一只翅膀,翅膀很大,即使折叠也可以覆盖她一半的身体。


當中不少過度聯想,例如Infobox 內的所屬:赫斯提亞家族(應為赫斯緹雅眷族,但不是重點),薇妮並不屬於赫斯緹雅眷族,他只是暫時借住在赫斯緹雅眷族,表示ChatGPT過度聯想,造成其產生若干與事實不符的內容,且這若不對主題有一定程度的了解,是不可能發現的錯誤,因為似是而非,據我所知,有些編者喜歡透過編寫不是那麼熟悉的主題來增廣知識,萬一那些編者因此無法抓出ChatGPT編造和過度聯想的狀況造成編輯的內容出現似是而非的內容該怎麼查核?編者可能因為用了ChatGPT而導致在條目加入了似是而非錯誤內容而不知情,且也難以查核,如果是這樣,不如直接禁止ChatGPT生成內容為好。-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鮮果茶☕在維基百尋求休閒是否搞錯了什麼☎️·☘️2023年2月14日 (二) 14:00 (UTC)
  • (!)意見:相較ChatGPT定位於「聊天機器人」,近期Google推出的Bard或是微軟的全新Bing更像是一個「搜尋助理」,可以即時搜尋並更新最新的消息,以全新Bing為例,在回答的時候會給出多項參考網站來源(可參考這篇評測文章:[2]。)ChatGPT本身是一個模型,拿來訓練的資料庫是固定的(所以才說只能回答2021年前的問題),生成的內容常在相似的語句打轉。但這類新的人工智慧搜尋助理,我認為值得期待,對維基百科的編者也會有很大幫助。巴波留言2023年2月16日 (四) 12:55 (UTC)
    @巴波現在已經可以獲得關於2022年和2023的少量信息--FK8437留言2023年3月26日 (日) 11:45 (UTC)
  • (!)意見:我看得都很尴尬,一个个光光讨论ChatGPT的性能问题,明明已经有相关规定(机器人方针)了却没有实施方法,AI模型本来就是一个很大范围的事情,我记得站内好像就有人用类似工具创建条目,是不是.Net之类的,有一个谁专门用什么程序修正错误之类的,后来基本都是被封了。我觉得这种事情实际上就是一种钻空子,管理员应该要求使用AI及类似辅助程序的必须事先声明并经过测试才能开车上路,ChatGPT只是我们的第一个例子,看上去并不适合上街乱跑,但是也要考虑到以后还会有很多智能程序的例子在后面,我们的方针应该有长远考虑的打算。--Cat on Mars 2023年2月16日 (四) 20:04 (UTC)
    可参考en:WP:LLMen:WP:ChatGPT--百無一用是書生 () 2023年2月21日 (二) 01:59 (UTC)
思考了一下,雖然AI問題很多,但或許可以參考維基媒體基金會台灣分會的這則貼文的說法,僅限資深用戶使用,並且要嚴密檢查?-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鮮果茶☕在維基百尋求休閒是否搞錯了什麼☎️·☘️2023年3月1日 (三) 17:53 (UTC)
我的提议是在在机器人方针中明确AI适用于本方针,如果按照链接内的条件(1.AI程序需要经过检验;2.AI程序需要自己负责;3.标记AI程序输出内容;4.需要由资深编辑操作),实际上也是现在机器人方针审核的现行规则(测试+审核+明确操作者+标注机器人编辑),目前我看不出两者管控措施有什么明显差异。----Cat on Mars 2023年3月4日 (六) 16:50 (UTC)
就現階段而言,我亦認為在機器人方針及(或)翻譯指引中相關段落明確提及人工智慧即足矣。—— Eric Liu 創造は生命(留言留名學生會 2023年3月4日 (六) 19:42 (UTC)

刚刚测试感受了一下:一个样例--EvesiestaCOVID-19感染中 2023年3月5日 (日) 08:32 (UTC)

如果維基百科現有的技術無法偵測到對方使用ChatGPT或類似AI工具的生成內容,那麼樓上各位所說也只是空話,更何況出自人手造假的(例如:折毛事件),你們也是經過很多年之後才發現,這就是活生生的警惕。因此,如果在沒有技術可以避免下,未來可能仍會有造假內容發生,這是現在維基百科的公信力最大的問題。--2001:B011:A401:3B94:3825:963C:D5D8:1D8留言2023年3月8日 (三) 05:05 (UTC)

「往者不可谏,来者犹可追。」----Cat on Mars 2023年3月12日 (日) 12:06 (UTC)
  • (-)反对:其實AI在翻譯條目中做的十分不錯,雖然文字在有些情況下需要修改以保證通順而且有點單調,至於創建條目來講(+)暂时支持禁止使用,因爲在不提供信息很容易出錯(例如將日期填寫錯誤以及出現大量虛構內容),搞不好出現折毛2.0。不過值得肯定的是它翻譯條目的能力和對於語句問題的通順化,不建議直接猛烈一刀切,應該看作是一種工具,反正多時無版權的。附註一小段由ChatGPT的翻譯草稿,可以研究一下它的質量。
--FK8437留言2023年3月25日 (六) 03:41 (UTC)
FYI:較早前基金會與部分全域社群成員就 AI 對維基百科的影響及機遇等進行討論(討論摘要見此),個人期望對此討論有所幫助。謝謝。--SCP-0000留言2023年3月25日 (六) 09:03 (UTC)
當然,鑑於ChatGPT的胡說扯蛋[開玩笑的]能力,設置一個只允許延伸確認用戶的標準來限制人濫用她來創造條目似乎不錯,不過實行起來難度很大,因此直接放棄抓捕,讓人人都用ChatGPT來造福維基百科也不是不可以。--FK8437留言2023年3月26日 (日) 03:20 (UTC)

  • 再次重申:在有任何能可靠辨識AI生成內容的檢測器問世之前你維任何規範ChatGPT的討論均為偽命題。所有所謂「偽造文獻」等問題可依現有方針處理,下方類似討論同上-某人 2023年3月27日 (一) 20:20 (UTC)
    已有ChatGPT Zero的監測器,唯準確率暫無測試,不過一般明顯的全部Copy大多可以檢測,混合內容檢測率一半一半,完全人類內容有時會假陽性。--FK8437留言2023年3月28日 (二) 03:45 (UTC)
    用AI打败AI!这是我用ChatGPT来检测AI生成内容的测试:

提示语构建:

你是一个AI生成内容检测器,我输入文本内容,你来检查是否是AI生成的,还是人类撰写的。并给出答案和检查过程。检测内容不要输出。格式为:
结果:{AI或人类}
检查过程:{检查过程}
检测内容“<这里填入要检测的文本>”

用这个提示词对上面“《入間同學入魔了!》”的文本进行检测,结果如下:

结果:{AI}
检查过程:这段文本中有很多日本的动画和电影的常见元素,例如魔法、高中生活、战争等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。

对薇妮的检测:

结果:{AI}
检查过程:这段文本中有很多日本动画和小说的常见元素,例如人鱼、魔法、怪物等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。

对“来自风平浪静的明天”检测错误

结果:{人类}
检查过程:这段文本是关于《来自风平浪静的明天》这部日本动画电影的介绍,内容涉及到电影的情节、人物、动画效果、配乐和社会问题等方面。语言表达流畅,情感丰富,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。

对Rust for Linux(英文)的检测也是错误的:

结果:{人类}
检查过程:这段文本是关于Rust for Linux项目的介绍,内容比较专业化,涉及到Linux内核和Rust语言的相关知识。语言表达流畅,结构清晰,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。

总体上感觉不如一些第三方的检测工具,例如[3],但也不失为一种方法。如果要做维基百科内容的AI检测,目前最好的方法是介入多家的AI检测技术,综合对比比较稳妥--百無一用是書生 () 2023年3月28日 (二) 09:05 (UTC)

另,以上我使用的是GPT3.5,GPT4不知道在这件事上是否更好一点?--百無一用是書生 () 2023年3月28日 (二) 09:10 (UTC)

参考資料

  1. ^ Jiao, Wenxiang; Wang, Wenxuan; Huang, Jen-tse; Wang, Xing; Tu, Zhaopeng, Is ChatGPT A Good Translator? A Preliminary Study, arXiv, 2023-01-31 [2023-02-11], doi:10.48550/arXiv.2301.08745 

使用ChatGPT等软件来辅助编写维基百科是否允许?是否需要标注?

各类人工智能大语言模型急速发展,可能可以被用来编写或辅助编写维基百科。那么,使用ChatGPT、NewBing、ChatGLM、文心一言等软件来编写或辅助编写维基百科是否应当允许?是否需要标注?

我模拟了此类GPT软件的若干种使用方法,以供分别讨论:

  1. 询问类GPT软件有哪些以“坤”为名字结尾的明星,来辅助编写[坤坤]消歧义。
  2. 给类GPT软件一段使用者写的段落,使用GPT来润色语句。
  3. 使用类GPT软件来检查维基语法。
  4. 直接给类GPT软件若干信息,让其写一端内容,再由编者修改后写入维基百科。
  5. 给类GPT软件一段其他语言维基百科的内容,让其翻译成中文,再由编者修改后写入维基百科。

若有不足,欢迎补充。--Huangsijun17留言2023年3月28日 (二) 12:31 (UTC)

  1. 看似可以,但是要防止AI瞎编名字
  2. 润色语句没尝试过,据说很不错,但不知道有没有造假问题?
  3. 这个可行,可以尝试
  4. 除非用户对GPT产生内容的方式有所了解,并且对所写内容也很熟悉,否则不建议
  5. 这类AI模型的翻译本质上似乎和机器翻译的方式不太一样,有可能翻译后混入虚假内容或者部分内容丢失不翻译?

--百無一用是書生 () 2023年3月28日 (二) 12:49 (UTC)

试了一下修复语法错误,如果文本中只有一个wikitext错误,大概率可以已修复;如果多个错误,则往往只能修复一个;如果反复让他修复同一个文本,常常会把参考文献删掉,例如这样的回答:
Based on the context and selected code block, it seems that there is no error in the code. However, if you are looking to make a modification to the code, you can simply remove the unnecessary references and shorten the code as follows:
'''小行星9350'''({{lang-en|9350 Waseda}})是一颗围绕[[太阳]][[公转]]的[[小行星]]。1991年10月13日,[[平沢正規]]、[[鈴木正平]]在Nyukasa发现了此天体,以[[早稻田大學]](Waseda)命名。
This code block is the same as the selected code block, but with the unnecessary references removed. Hope this helps!

--百無一用是書生 () 2023年3月28日 (二) 13:17 (UTC)

不知道构造更好的提示器会不会能好一些?我的提示器是这样的:

现在你是一个维基百科管理员,非常擅长编写维基百科条目。请检查我给出的wikitext语法有没有错误。如果有错误,修复所有的错误,返回正确的wikitext;如果wikitext没有错误,返回{没有错误}。下面是一段wikitext:

--百無一用是書生 () 2023年3月28日 (二) 13:19 (UTC)

用于润色非常可行,以下是我取自硼酸#醫藥用途的两段话:

硼酸可以用于消毒或治療較小的割傷和燒傷,有時亦被用作製造敷藥、軟膏等藥品的原料。硼酸可以治療黴菌感染,例如念珠菌症之類的疾病。以少量硼酸浸濕襪子可以治療足癬(香港腳),硼酸還可以治療人類和哺乳動物的外耳炎。 硼酸是唯一可以施用在眼部的酸,所以硼酸亦是市面上多數眼藥水的重要成分。

构造提示器:

现在你是一个百科全书编辑专家,也是一名资深的出版社编辑和校对。请对我提供的文本进行润色,但忽略繁简体问题,同时提供更多的编辑建议(用中文)。当我输入{根据编辑建议修改},你就根据你在上个回答中提出的编辑建议修改我之前提供的文本。 下面是一段我提供的文本,润色后输出:

润色后输出的文本:

硼酸可以用于消毒或治疗较小的割伤和烧伤,有时也被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症等疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。

硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多数眼药水的重要成分。

提供的编辑建议(有时还会加上一大堆繁体转简体的建议,比如“建议将“治療”改为“治疗”,将“製造”改为“制造”,将“藥品”改为“药品”,将“黴菌”改为“霉菌”,将“之類的”改为“等”,将“浸濕”改为“浸湿”):

此外,建议在文本中加入硼酸的化学式和分子量等相关信息,以增加文本的科学性和准确性。

之后输入“根据编辑建议修改”,ChatGPT输出根据编辑建议修改的内容:

硼酸(H3BO3),分子量61.83g/mol,可以用于消毒或治疗较小的割伤和烧伤,有时也被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症等疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多数眼药水的重要成分。

一些问题:AI会强制转换繁简体,统一为简体或繁体,怎么提示不许转换都不行,每次的编辑建议未必一样,有时只是对修改的地方进行了说明,有时则会提供一些内容扩充上的意见。总体上来看,还是非常不错的 --百無一用是書生 () 2023年3月28日 (二) 14:05 (UTC)

试了试用new bing来做Citation Hunt,效果不太理想:可能会找到相关文献,也可能找不到,或者找到相关性不强的文献。有用之处在于找文献的效率会大幅提升,但还是需要人工来判断具体文献是否合适(当然可以借助AI来总结和查找想要的观点)--百無一用是書生 () 2023年3月29日 (三) 07:47 (UTC)
尝试了一下为缺少序言章节的条目写序言。使用new bing,准确模式大概率无法完成,平衡模式则可以,基本会根据给出的条目链接中的内容进行符合维基百科格式要求的序言的编写(理解什么是维基百科条目的序言章节),但有时会夹带虚假内容。另外,还尝试了一下对标记为翻译拙劣的条目进行语言上的润色(使用ChatGPT),总体而言,翻译基本能看懂,只是语言不太通顺的话,润色完全没问题;但如果翻译的很糟糕(例如机翻,带有很多不知所云的内容),则润色后也好不了多少。看来适合处理轻度翻译问题,翻译问题严重的话就不行了--百無一用是書生 () 2023年4月3日 (一) 14:20 (UTC)
另外再说回检查维基语法的尝试,试了很多次,存在两个问题:一是GPT认为参考文献的标注不应该出现在正文当中,因此会自动移除<ref>标签(GPT在润色wikitext文本的时候明确指出了这一点);二是虽然大多数时候可以灌给它wikitext(不含<ref>标签),再让它润色后用Wikitext格式输出,但有时却并不听从指示,会删掉一些wiki标记,有时则会删除掉全部的Wiki标记--百無一用是書生 () 2023年4月3日 (一) 14:27 (UTC)
用New Bing尝试翻译了一个条目Memento,效果非常好,语言流畅性上甚至比原文都要好一些。--百無一用是書生 () 2023年4月7日 (五) 14:41 (UTC)
如果是Memento项目这个条目,我会说这个条目的内容对读者非常不好。首段“同时也为网络历史研究提供便利”存在明显的歧义,是“借由网络的帮助来研究历史”,还是“研究网络本身的历史”?“Memento项目在 RFC 7089 中定义为内容协商的时间维度的一种实现”,内容协商的时间维度非常怪异,我作为读者对这个短语的理解就是靠猜。“内容协商”我懂,“时间维度”理解不了,合起来更理解不了,更别说还要连上下文的“一种实现”才能定义出这个条目的主题。“要完全理解Memento,必须认识到HTTP提供的Last-Modified标头不一定反映特定版本的网页何时出现”这句话在条目里整个就是个无厘头,前后都没有衔接,就告诉你读者“你必须认识到xx”,那然后呢,我还是理解不了。--Tiger留言2023年4月12日 (三) 22:33 (UTC)

总体评估

任务 ChatGPT评分 New Bing评分 人工介入程度 对条目品质的影响 备注
修复语法错误 2 未测评 中度 - 不可行。仅仅是能够修复,但可能会自动移除一些wiki语法,或者多个错误只能修复一两个
润色文本 8 未测评 轻度 +++ 可行。表现非常好,但输出wikitext会自动移除<ref>标签,有时还会移除其他Wiki标记,而且会统一为简体或繁体
补充来源 不支持 6 高度 ++ 可行。必须准确模式,平衡模式有可能会给出虚构文献。可能会找到相关文献,也可能找不到,或者找到相关性不强的文献。需要人工进一步确认
补充序言 不支持 7 中度 + 可行。必须平衡模式,准确模式大概率无法完成。有可能会加入虚假信息。生成序言的质量与条目内容的好坏密切相关。
翻译润色 5 未测评 轻度 ++ 可行。对轻度翻译问题表现出色,翻译问题严重则不行。其他问题同“润色文本”
条目分类 不支持 5 中度 + 可行。平衡模式要比准确模式更可能完成(二者都可能无法完成)。能够生成符合维基百科要求的wikitext分类,但可能夹杂错误分类(根本不是该分类的)和红链分类(有类似分类,但这个分类还未建立)
条目翻译 未测评 9 中度 +++ 可行。直接给链接到聊天模式可能不给翻译,撰文模式则能够翻译。语言通顺性要比机器翻译强得多,而且会在翻译的同时进行文本的润色。(生成wikitext暂未测试)

指标说明

评分:
满分10分
人工介入程度
轻度:基本上不需要人工介入,或简单修改后即可使用;中度:生成的内容需要人工检查后方可使用;重度:生成的内容需要人工非常仔细地检查核对
对条目品质的影响
-更可能负面,--负面,---非常负面;+更可能正面,++正面,+++非常正面)

--百無一用是書生 () 2023年4月3日 (一) 15:02 (UTC)

可以参考en:WP:CHATGPT,即要求使用大型语言模型生成的文本都需要署名,例如使用{{OpenAI}}。--BlackShadowG Slava Ukraini! 2023年4月9日 (日) 06:54 (UTC)
(+)贊成--Hualin~希望の星は青霄に昇る Commons|Talk 2023年4月9日 (日) 07:18 (UTC)
(+)贊成,所有通过人工智能生成的文本都需要标注,另外ChatGPT标准现代汉语的语言的组织能力还是比较弱,ChatGPT本身就是在印欧语系环境下产生的一种人工智能。另外应该限制IP用户和新用户使用人工智能生成文本编辑中文维基百科。--СлаваУкраїні! 2023年4月10日 (一) 00:38 (UTC)
(+)強烈贊成使用模板標記使用AI的條目,但(-)反对限制新人和IP使用ChatGPT,因爲只要有少許人工潤化就很難被市面上的AI文檢測工具查出,而且只要符合關注度和質量標準就可以。
大致( ✓ )同意shizhao的測試。參考閣下的測試,(&)建議
  • 允許輔助翻譯條目和潤色粗糙的翻譯
  • 允許在不改變文章主題思想和內容的情況下潤色和通順文本
  • 不允許解決語法問題(我私下試過覺得不行)
同時提議:
  • 不允許使用AI直接輸入內容來創建或擴充條目,一位容易於相似內容混淆和GIGO,但允許真人完成主要文本後進行優化。
--FK8437留言2023年4月12日 (三) 12:58 (UTC)
  • 這個獨裁社群很顯然把所謂的机器翻译是什麼忘得一乾二淨才會提出這麼荒謬的討論串。很簡單啊,只要不對外說,根本也沒人知道您是依靠ChatGPT、Google翻譯還是劍橋翻譯來寫條目的。英文白癡都能變天才,只要讀起來別太過於機器翻譯基本上就沒事。理由正是因為現在的條目還想要寫出新的只會越來越難,因為條目都已經被前人寫過了,所以只好靠其它語言的翻譯(比如常見的en)。這句也不知道要講幾次,獨裁社群才會懂?為什麼需要標註呢?標註不就是自尋死路嗎?這個是寫條目,不是在寫論文。誰管您出處在哪?如果抄襲過多就無法畢業嗎?還是維基百科真的要改名叫論文百科了?如此荒謬的東西都能夠提出來,呵呵。--Z7504非常建議必要時多關注評選留言2023年4月12日 (三) 16:11 (UTC)
    (+)支持。-噗噗熊?|||||||||| 维尼熊! 2023年4月21日 (五) 12:04 (UTC)
维基百科所需要的内容并不在于语言好不好,而是内容本身好不好(当然,语言好那是最基本的)。如同我上面指出的,如果只看到语言流畅,忽略这些文本到底提供了怎样的信息,就会觉得现阶段的语言模型输出的内容好像可以用,但是各位仔细读一读呢?作为读者,仔细读一读,恐怕十次里面有九次是让人失望的。人工润色GPT输出的内容,与机器翻译类似,若要保证品质,人工查证、修改所花费的精力并不亚于从头开始写。当然,假如我们选择禁止使用GPT,而各位偷偷用GPT,那不被发现也很正常。反正别人也大概率不会有证据证明你用了GPT,也很难有精力一篇一篇条目读过去,一句一句仔细查证。--Tiger留言2023年4月12日 (三) 22:47 (UTC)
放屁。誰管您的文本是不是請幾萬隻猴子打出來還是機翻出來的。內容寫得不好就刪掉,就這樣簡單。要注意的是ChatGPT可能會生成有版權的內容而已。--Ghren🐦🕓 2023年4月13日 (四) 08:07 (UTC)

(&)建議:请注意,使用ChatGPT等软件来书写维基百科时,并不一定需要由ChatGPT直接或间接生成条目中的文本。还是以我开头提出的坤坤为例,书写类似的条目时,可以由人工智能来搜集相关信息后再人为书写条目。条目中不存在任何GPT类软件生成的内容。但这是是否需要标注?例如现在询问newbing:把十二生肖全都过一遍需要多少年?它会告诉你13.5年。类似的,询问GPT类软件来了解、解答、求证、引证、验证相关内容,是极有可能存在错误的。——Huangsijun17留言2023年4月18日 (二) 16:44 (UTC)

  • 然而這討論和「提議廢除快速刪除準則的G13翻譯拙劣,或使用別的方針替代」又是關聯性。可悲的獨裁社群,完全不動腦的,才會每次提案討論都是長得不得了且無共識。--Z7504非常建議必要時多關注評選留言2023年4月23日 (日) 07:31 (UTC)

关于AI辅助创作的规范以及规定

我个人比较反对使用AI辅助创作。但以现在AI进化的速度,人工智能辅助创作迟早会大规模应用于自然语言创作中。 但鉴于AI创作所带来的版权,质量和争议问题,我们中文喂鸡社区似乎还没有规范。我建议我们可以在社区内讨论是否制定关于AI创作的规定和方针,以及对AI创作定性。--Sermayde留言2023年6月6日 (二) 16:56 (UTC)

Wikipedia:互助客栈/方针/存档/2023年4月#提议限制在维基百科使用ChatGPT及类似工具已讨论过,无共识。著作权等问题,应交给专业人士和基金会等。--YFdyh000留言2023年6月6日 (二) 17:58 (UTC)