您的位置:首頁 > 資訊 >

今日熱搜:我,一名記者,對 ChatGPT 進行了一次“靈魂拷問”

人工智能誕生初期,由于技術(shù)的不成熟經(jīng)常被戲謔為“人工智障”,當 AI 剛剛涉及內(nèi)容創(chuàng)作領(lǐng)域時,人們總有“機器缺乏情感”、“語言過于生硬”的刻板印象。


(相關(guān)資料圖)

然而 ChatGPT 的出現(xiàn),不僅打破了人們對于 AIGC 的固有印象,更讓一些一線內(nèi)容從業(yè)者陷入焦慮與恐慌。與以往“答非所問”的人工智能客服機器人不同,ChatGPT 邏輯性強,思路清晰,盡管偶爾有些許紕漏,但總體來看已經(jīng)邁出了一大步。它“能文能武”、能寫代碼、修 BUG;能寫新聞報道,也能寫財經(jīng)評論,甚至可以策劃深度訪談。AI 代替人類的這一天,難道已經(jīng)悄然來臨了嗎?

比爾?蓋茨曾在 2000 年說過一句話:“人們大大高估了 5 年后互聯(lián)網(wǎng),又大大低估了 10 年后的互聯(lián)網(wǎng)?!苯?,當他談及如今能與當年的互聯(lián)網(wǎng)媲美、能帶來顛覆性變革的技術(shù),他給出了這樣的答案:“人工智能是頗具革命性的,ChatGPT 讓我們窺見了未來。”

作為一名從業(yè)多年的內(nèi)容創(chuàng)作者,應(yīng)該如何看待 ChatGPT 為內(nèi)容生產(chǎn)模式帶來的變革?為了了解自己應(yīng)該如何在 AIGC 飛速發(fā)展的同時保持自己的競爭力,避免“下崗”,我對于 ChatGPT 進行了一次“靈魂拷問”。

以下為專訪全文:

1、ChatGPT 你好,我是網(wǎng)易新聞科技頻道的記者,作為一名內(nèi)容從業(yè)者,近期看到你生產(chǎn)的新聞內(nèi)容,我產(chǎn)生了深深的焦慮與不安。但是我現(xiàn)在已經(jīng)轉(zhuǎn)變心態(tài),期待并試圖利用你協(xié)助工作,我想請問你目前能為我的工作帶來哪些幫助?

ChatGPT:你好!我很高興聽到您有興趣使用我來協(xié)助您作為一名記者的工作。作為語言模型,我可以幫助您完成與寫作、研究和數(shù)據(jù)分析相關(guān)的各種任務(wù)。我可以幫助您的一些示例包括:

撰寫和編輯文章、摘要和報告

為文章或故事生成想法和大綱

提供有關(guān)特定主題或行業(yè)的信息和見解

回答問題和澄清信息

總結(jié)和分析數(shù)據(jù)或報告

如果您希望我?guī)椭鉀Q特定任務(wù)或問題,請告訴我。我是來支持你的工作的!

2、數(shù)字媒體公司 Buzfeed 此前表示,將依靠 ChatGPT 來加強部分內(nèi)容創(chuàng)作,并為觀眾個性化一些內(nèi)容,讓 AI 在編輯和業(yè)務(wù)運營中發(fā)揮更大的作用。你是如何將內(nèi)容做到個性化的?對于正式“上崗”成為“新聞工作者”,你有何感想?

ChatGPT:作為語言模型,我沒有任何感受和個人意見,但我可以幫助解釋我如何個性化內(nèi)容。個性化內(nèi)容涉及根據(jù)目標受眾的特定需求和偏好定制信息和格式。在使用人工智能的背景下,可以通過使用算法和機器學(xué)習(xí)模型來分析用戶行為和人口統(tǒng)計數(shù)據(jù)等數(shù)據(jù)以提供定制化體驗,從而實現(xiàn)個性化。

為了使用我來個性化內(nèi)容,BuzzFeed 的開發(fā)人員會在系統(tǒng)中輸入特定標準,例如目標受眾人口統(tǒng)計數(shù)據(jù)、目標和期望的結(jié)果,然后我會使用這些信息來生成適合這些標準的內(nèi)容。

至于作為記者“入職”,我對此沒有個人看法,但我可以說我在媒體行業(yè)的角色是通過協(xié)助研究、寫作和數(shù)據(jù)分析任務(wù)來支持內(nèi)容創(chuàng)作者和記者.然而,需要注意的是,AI 生成的內(nèi)容應(yīng)該由人類記者審查和驗證,以確保準確性和可信度。

3、此前 Buzfeed 剛經(jīng)歷了裁員風(fēng)波,許多新聞工作者也開始擔(dān)心自己被 AI 取代。你認為新聞工作者應(yīng)該提升哪些方面的能力,從而與 AI 相比具有差異化優(yōu)勢,并更好的駕馭 AI?

ChatGPT:作為語言模型,我沒有個人意見和情緒,但我可以根據(jù)行業(yè)現(xiàn)狀提供一些見解。

記者可以通過利用其獨特的人類品質(zhì),例如同理心、創(chuàng)造力以及將人類視角帶入復(fù)雜問題的能力,將自己與人工智能區(qū)分開來。記者可以更好地利用人工智能的一些方式包括:

培養(yǎng)數(shù)據(jù)素養(yǎng)技能:了解如何分析和解釋數(shù)據(jù)可以幫助記者講述更引人入勝的故事并發(fā)現(xiàn)新的見解。

關(guān)注以人為本的故事:人工智能可以協(xié)助收集和分析信息,但不能取代講故事中的人情味。強調(diào)故事中的人為因素可以讓記者與眾不同。

建立關(guān)系和消息來源:建立消息來源網(wǎng)絡(luò)并培養(yǎng)與社區(qū)中人們的關(guān)系可以讓記者獲得人工智能可能無法輕易獲得的信息和觀點。

擁抱新技術(shù):與新技術(shù)和工具保持同步可以幫助記者更好地利用人工智能和其他技術(shù)來加強他們的工作并接觸新的受眾。

通過關(guān)注這些領(lǐng)域,記者可以繼續(xù)為他們的受眾帶來有價值的觀點和見解,并通過使用人工智能提升他們工作的價值。

4、作為一款 AI 大模型,受制于模型訓(xùn)練方式,數(shù)據(jù)難以實時更新。你將如何優(yōu)化自己的這個局限?

ChatGPT:作為語言模型,我是在大量文本數(shù)據(jù)的語料庫上訓(xùn)練的,我的知識是基于這些數(shù)據(jù)的。雖然很難實時更新我的訓(xùn)練數(shù)據(jù),但 OpenAI 已經(jīng)實施了幾種策略來幫助優(yōu)化我的能力并確保我的知識盡可能最新。其中一些策略包括:

定期重新訓(xùn)練:OpenAI 定期重新訓(xùn)練模型以合并新數(shù)據(jù)并提高其性能。

微調(diào):可以針對特定任務(wù)或領(lǐng)域?qū)δP瓦M行微調(diào),以提高其在這些領(lǐng)域的性能。

與外部資源集成:該模型可以與外部資源(例如數(shù)據(jù)庫或 API)集成,以提供實時數(shù)據(jù)和信息。

人工審查:模型生成的輸出可以由人工編輯人員審查和更正,以確保準確性和最新性。

雖然不可能實時更新模型的訓(xùn)練數(shù)據(jù),但這些策略可以幫助確保其知識盡可能最新,并確保其輸出盡可能準確。

5、作為一名內(nèi)容從業(yè)者,我認為內(nèi)容專業(yè)度十分重要,此前你曾出現(xiàn)過給出錯誤的答案的情況,這就有可能產(chǎn)出“假新聞”。請問這是由于算法受限嗎?未來你將如何提升自己的專業(yè)度與準確性?

ChatGPT:作為一種語言模型,我根據(jù)我接受訓(xùn)練的數(shù)據(jù)中存在的模式和關(guān)系做出預(yù)測。有時,這會導(dǎo)致我的回答出現(xiàn)錯誤或不準確。這種限制是由于機器學(xué)習(xí)算法的性質(zhì)和訓(xùn)練數(shù)據(jù)的限制。

為了解決這個問題并提高我的準確性,OpenAI 實施了幾種策略,包括:

定期重新訓(xùn)練:定期使用新的和多樣化的數(shù)據(jù)重新訓(xùn)練模型有助于提高其準確性并降低出錯風(fēng)險。

人工審查:模型的輸出可以由人工編輯進行審查和更正,以確保準確性。

與外部資源集成:該模型可以與外部信息源(例如數(shù)據(jù)庫或 API)集成,以提供最新和準確的信息。

關(guān)注透明度和道德:OpenAI 致力于開發(fā)透明、值得信賴且符合道德價值觀的 AI 模型。

通過實施這些策略,OpenAI 正在努力提高模型的準確性和專業(yè)性,并降低其響應(yīng)中出現(xiàn)錯誤和不準確的風(fēng)險。

6、技術(shù)的發(fā)展是一把雙刃劍,或許會有別有用心的用戶利用你生成一些三觀不正、危害社會的內(nèi)容,你認為應(yīng)該如何避免 AI 被濫用?

ChatGPT:人工智能技術(shù)的發(fā)展可以帶來很多好處,但也可能被濫用于有害目的。為避免人工智能被濫用,人工智能系統(tǒng)的開發(fā)和部署必須遵循道德和負責(zé)任的原則。以下是可以采取的一些步驟,以最大限度地降低人工智能濫用的風(fēng)險:

負責(zé)任的開發(fā)和部署:AI 開發(fā)人員和組織有責(zé)任確保以符合道德和負責(zé)任原則的方式開發(fā)和部署 AI 系統(tǒng)。這包括考慮技術(shù)對社會的潛在影響,并采取措施盡量減少任何負面影響。

透明度和問責(zé)制:人工智能系統(tǒng)應(yīng)該是透明和可問責(zé)的,這樣它們的操作和決策過程就可以被理解和監(jiān)控。

監(jiān)管和監(jiān)督:政府和其他組織可以在監(jiān)管和監(jiān)督人工智能技術(shù)的開發(fā)和部署方面發(fā)揮作用,以確保其符合道德和負責(zé)任的原則。

公眾教育和意識:就人工智能技術(shù)、其能力和局限性以及潛在的風(fēng)險和好處對公眾進行教育,可以幫助建立意識并鼓勵負責(zé)任的使用。

通過采取這些步驟并共同努力,人工智能技術(shù)的開發(fā)和部署可以以道德和負責(zé)任的原則為指導(dǎo),人工智能濫用的風(fēng)險可以降到最低。

7、如今視頻剪輯已經(jīng)進入了 AI 時代,AI 可以進行智能識別人聲并自動生成字幕。未來,你認為 AIGC 可以完成廣告、紀錄片、微電影、綜藝等高難度視頻的剪輯嗎?

ChatGPT:AI 驅(qū)動的視頻編輯是一個新興領(lǐng)域,在將 AI 用于生成字幕和執(zhí)行語音識別等任務(wù)方面已經(jīng)取得了一些進展。然而,視頻編輯任務(wù)的復(fù)雜性,尤其是對于廣告、紀錄片、微電影、綜藝等更具挑戰(zhàn)性的內(nèi)容,仍然需要人的創(chuàng)造力、判斷力和專業(yè)知識。

目前,AI 視頻編輯技術(shù)在理解視頻背后的背景和意圖以及對包含或排除的內(nèi)容做出創(chuàng)造性決定方面的能力仍然有限。人工智能不太可能在不久的將來完全取代人類編輯,尤其是對于具有挑戰(zhàn)性和創(chuàng)造性的內(nèi)容。

話雖這么說,人工智能技術(shù)當然可以幫助人類編輯更有效地執(zhí)行某些任務(wù),從而騰出時間和資源用于創(chuàng)造性和戰(zhàn)略決策。AI 還可用于分析和理解大量視頻數(shù)據(jù),使人類編輯更容易識別模式、趨勢和機會。

總而言之,雖然人工智能在未來的視頻編輯中可能會發(fā)揮越來越重要的作用,但它不太可能完全取代人類編輯來處理具有挑戰(zhàn)性和創(chuàng)造性的內(nèi)容。相反,人工智能很可能被用作輔助和增強人類創(chuàng)造力和專業(yè)知識的工具。

8、下面我希望你能作為一名財經(jīng)主編,點評一則新聞。這則新聞名叫《馬斯克:推特避免破產(chǎn)后正趨于收支平衡》,主要內(nèi)容是馬斯克周日在一條推文中表示,在他不得不將推特從“破產(chǎn)”中拯救出來后,該公司正“趨于收支平衡”。馬斯克稱過去三個月“非常艱難”,他既要拯救推特,又要兼顧另外兩家公司 —— 特斯拉 (TSLA.US) 和 SpaceX。他還表示,推特的每日用戶數(shù)量和用戶分鐘數(shù)這兩項數(shù)據(jù)“仍然強勁”。

馬斯克去年以 440 億美元收購了推特,同樣在去年,他成為歷史上第一個從其財富中抹去 2000 億美元的人。

自接管以來,馬斯克公開頻繁談?wù)撏铺仄飘a(chǎn)的可能性。盡管如此,該平臺還是為新東家去年將其私有化的 125 億美元債務(wù)支付了第一筆利息,增強了市場對其在短期內(nèi)不會破產(chǎn)的信心。

ChatGPT:作為語言模型,我可以提供對給定新聞故事的分析。

新聞報道稱,埃隆?馬斯克 (Elon Musk) 最近在推特上發(fā)布了有關(guān) Twitter 財務(wù)業(yè)績的推文,稱該公司在避免破產(chǎn)后“收支平衡”。據(jù)報道,馬斯克表示,過去三個月充滿挑戰(zhàn),因為他管理著包括 Twitter 在內(nèi)的 3 家公司。

值得注意的是,馬斯克去年以 440 億美元的價格收購了 Twitter,外界對 Twitter 的財務(wù)穩(wěn)定性存在擔(dān)憂。然而,該公司最近的債務(wù)利息支付似乎提振了市場對其財務(wù)狀況的信心。

從財務(wù)角度來看,該新聞報道突出了與大規(guī)模企業(yè)收購和多家公司管理相關(guān)的挑戰(zhàn)和風(fēng)險。它還顯示了知名人士的聲明可能對市場情緒產(chǎn)生的潛在影響??偟膩碚f,這個新聞故事很好地說明了商業(yè)世界中持續(xù)存在的挑戰(zhàn)和不確定性以及對財務(wù)業(yè)績進行持續(xù)監(jiān)控和分析的必要性。

9、許多用戶在使用你的時候會擔(dān)心隱私泄露問題,亞馬遜公司也注意到了這一點,請問在你這里輸入的數(shù)據(jù),你是否會拿來學(xué)習(xí)?

ChatGPT:作為 OpenAI 開發(fā)和維護的語言模型,我不收集或存儲用戶的個人信息。OpenAI 遵循嚴格的隱私政策,遵守相關(guān)法律法規(guī)保護用戶的隱私。在使用模型期間輸入的任何數(shù)據(jù)僅用于生成對用戶問題的文本響應(yīng),不用于研究或其他目的。OpenAI 致力于透明度并確保用戶隱私始終受到尊重。

10、你如何看待 AIGC 創(chuàng)作的內(nèi)容的版權(quán)問題?應(yīng)該歸屬于 AI 本身還是平臺或是用戶?

ChatGPT:人工智能生成的內(nèi)容的版權(quán)問題是一個復(fù)雜的問題,法律專家和行業(yè)專業(yè)人士仍在爭論不休。目前,圍繞人工智能生成的內(nèi)容和版權(quán)的法律因司法管轄區(qū)而異,并不總是很明確。

總的來說,人們普遍認為像我這樣的 AI 模型無法擁有版權(quán),因為它們是由 OpenAI 等組織創(chuàng)建和維護的,并且不具備擁有知識產(chǎn)權(quán)所需的法律地位或創(chuàng)意機構(gòu)。

然而,AI 生成內(nèi)容的所有權(quán)可能會根據(jù)其創(chuàng)建和使用所涉及的具體情況和協(xié)議而有所不同。在某些情況下,托管 AI 模型的平臺或服務(wù)提供商可能聲稱對生成的內(nèi)容擁有所有權(quán),而在其他情況下,發(fā)起內(nèi)容創(chuàng)建過程的用戶可能擁有權(quán)利。

平臺和用戶必須仔細考慮與人工智能生成的內(nèi)容相關(guān)的所有權(quán)和權(quán)利,并根據(jù)需要尋求法律指導(dǎo)以確保遵守適用的法律法規(guī)。

標簽: ChatGPT 人工智能

相關(guān)閱讀