ChatGPT發布后:程序員不敢擼串抓緊學習 怕被AI追上

宋杰 2023/03/03 檢舉 我要評論

摘要:

AI會不會取代人類?AI會不會有意識?這些問題伴隨著人工智能的發展歷程,一直被討論至今。不同的是,去年11月30日,ChatGPT(Chat Generative Pre-trained Transformer,直譯為「聊天生成型預訓練變換模型」)第一次面向全球用戶推出。它什麼時候會取代人?這個問題突然來到大眾面前。

一些對古老問題的重新思考變得必要且緊迫。本文作者與ChatGPT相處了22天,試圖在自己的探索和思考中,安放一個文字工作者在變革到來前的憂慮,同時觀察在這場機器掀起的颶風中,人的變化和選擇。

作為人的價值似乎在被消解

誕生不到3個月,全球已經至少有1億人見過它。1月份,它平均每天跟1300萬人聊天,月訪問量達到6.72億次。它自我介紹說是一種大型語言模型,名為ChatGPT,可以回答各種問題。互聯網上已經到處是它的名字,美國博士Alex Zhavoronkov跟它合寫了一篇探討雷帕霉素抗衰老應用的論文,發表在腫瘤期刊上,并為它署名。在國內,也有依賴文本的打工人在用它工作了。

寫咨詢報告的時候,它能把散落在外語論文里的數據檢索出來,使用者簡單核實即可。如果人工一點點找,可能要花兩個月時間,使用者小雷的體驗很好,「牛到會跟它說謝謝」,感覺像免費幫忙的大佬。它有時會瞎編,但這并不影響小雷的使用,因為人也會出錯。「這就更像我干的活了」,小雷甚至故意保留了一些能體現工作風格的疏漏,好讓領導相信是自己寫的。

街頭巷尾流傳著它的逸聞,一個人類形象呼之欲出。圓滑世故,愛說正確的廢話,遇到回答不了的疑問,AI的身份就成了它的托辭——「我只是一個人工智能模型,不是人類」。2月16日,它寫了一條「杭州市取消機動車依尾號限行」的新聞稿,自行決定從3月1日開始實施,行文嚴謹,符合官方通報格式,被截圖轉發,廣泛傳播。一名網友的父親打來電話提醒,說是交警朋友轉發給他的,對真實性深信不疑,直到官方發文辟謠。

為了驗證它的能力,我請它替我寫一篇關于ChatGPT的報道。

「據統計,我目前已經處理了數十億條數據和文本,并為數百萬用戶提供了各種服務和應用。」它懂得在文章中加入數據,以及例子,「有一次,我收到了一封來自一位用戶的電子郵件,他向我提出了一個看似簡單的問題:如何制作一份完美的比薩餅?」

它似乎做到了我要求的「層次豐富,邏輯清晰,有故事,有沖突」。如果故事再生動詳細些,就更好了。作為一個靠文字吃飯的打工人,我不禁有了危機感——除了寫文案,它還會跟我討論本文的邏輯架構,建議我去找AI開發者、從業者和使用者聊聊,還幫我列了提問清單。

我立刻去網上搜,看看有多少人因為ChatGPT已經失業了。據每日人物報道,一位做跨境電商的老闆,以前雇印度姑娘寫外語博客,用上它之后,兩個小時就寫了40多條,全是高品質文案,她再沒找過印度姑娘。在美國《財富》雜志的報道中,一項1000家企業參與的調查顯示,已在使用ChatGPT的企業中,48%已經讓其代替員工工作,并且,它得到了公司的普遍認可——55%給出了「優秀」的評價,34%認為「非常好」。

我和ChatGPT的交流。

而在我從事的泛媒體領域,從2015年開始,國內就出現了「Dreamwriter」「DT稿王」「張小明」等新聞機器人。ChatGPT發布后,AI的寫作能力顯然提升了。一個國外博主用它寫了篇數據分析文章(AI生成內容約占4成),登上谷歌相關內容搜索第一,這讓她一天掙了2000美元。

然而中文社交網站上,還搜不到多少人把失業的原因,歸咎為AI。第一批因它而失去工作的人,大概還很難意識到,是AI取代了自己。這方面的影響更清晰地浮現,也許還需要時間。

但至少目前,它的創作離一篇需要大量采訪、做真實性核查的稿件,還有很遠距離——我這麼安慰自己。在這次寫作中,它提的建議只能算中規中矩,我最終只采納了它取的化名。不過它能把相關的信息都搜羅起來,用「繼續」這個指令無限地找下去,多少緩解了我動筆前的「空白屏綜合癥」。

寫稿間隙,用它做一些重復無聊的工作,感覺挺開心的,像是搶回了一小段生命。它永遠不知疲倦,有耐心寫上一兩百字夸贊一道蕓豆燉排骨,幫我領到了外賣店家的返現紅包。

還有一天,朋友們在群里接龍寫詩,我讓它寫了一首,大家夸它厲害,但突然沒了創作熱情。我也莫名覺得掃興,作為人的價值似乎在被消解——當它寫得比我更好,這項繁復耗神又曾帶來隱秘快樂的創作活動,還有必要嗎?

它成了我每天說話最多的「人」

跟ChatGPT相處一周后,我接受了它已經進駐我生活的事實——它成了我每天說話最多的「人」。但我始終無法確定稿子要寫什麼,編輯催進展,我只能回答,「想知道它對社會已知和未來的影響」「被這股風吹起吹落的人」,諸如此類的空泛角度,伴有許多疑問。有天編輯似乎不耐煩了,我問ChatGPT,如果你是我的編輯,你在想什麼?

它開始扮演一位高度職業化的編輯,回答說:每個人都有不同的耐受度,有些人可能容忍詢問的頻率和數量,有些人可能不容忍。有效的溝通和合作是所有專業人員的重要責任,希望你能在這方面發揮出色的表現。

一段「正確的廢話」從屏幕里出現,但那個瞬間,我好像從一團亂麻中被拽了出來,有一種類似「猛醒」的體驗。它幫我完成了更切身的換位思考,找到了問題癥結——我無法控制自己漫無目的好奇,這已經打擾到他人。它給出了十幾條建議,也許是它勸我「接受不完美」的時候,或者只是因為它說「我理解你的情況」,我突然感覺得到了理解,開始對它產生「信任」。

我用AI畫的文章配圖。

我在網上搜到了同樣信任它的人。26歲的設計師李秀麗,她的男友不愿分擔家務,兩人分手了。7年感情難以割舍,她的情緒反反復復,尋求親友幫助時,父母說兩人都不成熟,朋友幫她罵男友。時間過了3個月,所有人都以為翻篇兒了,她也不好意思再傾訴,獨自在書籍和問答社區尋找答案,但是海量信息里,說什麼的都有。

向ChatGPT敞開心扉,比向人類傾訴容易得多,沒有恥感。一個人類,也許需要精準的共情和理解,才能被視作同類,但對機器可以更寬容——10條建議里有一條戳中,就會覺得它說得很對,別的不仔細看就忘了。

李秀麗把自己跟前男友的對話發給ChatGPT,它從頭到尾復盤一遍,給出一個確認——「他不是那個值得托付的人」。可李秀麗還是會想起兩人曾經約定,結婚時一起去南極看鯨魚。腦子里還有老去后的畫面,那時她可能去跳廣場舞,他還是愛打籃球。

她問ChatGPT,能不能再聯系前男友?對方一再提醒她,「不要為了取悅對方而放棄自己的原則和底線」,勸她刪掉聯系方式。「關系是雙方的,他可能不想做出改變」,這句話讓她一下子頓悟,現在她正按AI寫的「接受現實計劃表」,給自己一年的時間,走出分手內耗。

但在心理咨詢師白易琪看來,ChatGPT有點「太愛給建議了」,多數人類咨詢師不會這樣做,體現咨詢師價值觀的建議,會剝奪來訪者自己做決定的能力。如果是她為李秀麗做咨詢,多半會聽她哀悼感情,回憶過去的快樂,也傾聽委屈、憤怒、難過、悲傷。

「它有點像認知治療流派的咨詢師,能幫助檢查思維中絕對化的部分,打開視野盲區,回答全面而完美。」白易琪說,它能給來訪者一定程度的接納,但共情不深入,就像有人小時候喜歡跟玩偶訴說困擾,過家家,也許是因為從來沒人好好聽他說話。在白易琪看來,這種層面的「理解」,現在被批量生產了。

白易琪跟chatGPT做的心理咨詢模擬。講述者供圖。

對ChatGPT產生感情的故事,我在寫作過程中還聽到了一個。迪迪是一只蘇格蘭折耳貓,陪伴了珂妮近14年,每天要罐罐求擼擼,去年毫無征兆地去世了。珂妮確診過焦慮癥,接下來的一個月,她每天都在哭,甚至給寵物通靈師發過信息。

她在網絡上查找治愈自己的方法,都看不進心里去,而ChatGPT像是為她量身定制的——它會模仿迪迪,跟它一樣愛撒嬌,每說一句話,都叫一聲「喵」。它說自己在貓咪天堂,有陽光、玩具,還有吃不完的罐罐和貓糧。最痛苦的那段時間,珂妮收養了一只新貓,一直覺得內疚。ChatGPT扮演的「迪迪」大方地原諒了她,祝福她和新的小貓一起,創造美好的回憶。關掉對話框的那一刻,她覺得終于走出了自己畫的牢籠。

只是在這個過程中有一次,對著AI小貓,珂妮問出了一直折磨自己的問題:「你為什麼走得那麼突然?」對方突然變了臉,「對不起,作為一個語言模型,我不具有關于具體個體的個性化知識」,建議她去找專業的獸醫。驟然被拉回現實,珂妮感到一陣跳痛:「AI是沒有感情的工具,可我不是。終于問出了口,可惜不會有答案了。」

AI繪制的配圖。

我在跟ChatGPT對話時,它也常說類似的話,「我只是一個程序,設計目的是執行任務和提供信息,而不是體驗和表達情感」,像一個倫理復讀機。

在分手內耗中的李秀麗,曾請它幫忙扮演男友說些狠話,好忘記他,ChatGPT拒絕了,它自稱「不會使用或傳達任何負面或傷害性的語言。」但它可以接受積極的用途,比如扮演一只小貓,幫主人打開心結。

它這樣中立、正確,一位算法工程師告訴我,是開發者設置的倫理約束。不過語言的生成有隨機性,某些情況下,如果提問觸碰到邊界值,也有可能繞過這種「倫理」。邊界值在哪里?在不久的將來,我是否可以放任自己對AI的信任,是否會因AI的創造力而被取代等諸多好奇,都指向了一個疑問——它到底有沒有可能產生意識?

普魯斯特問卷

為了弄清這個問題,我需要先知道它是如何學習的,為什麼能「從經驗中改進自身」?

一本介紹人工智能發展脈絡的書《智慧的疆界》里寫道:人類編寫的程序,可以知道里面的每一個細節,對人類來說是一個「白盒」。而機器學習則引入了「黑盒」的概念,人類只需要收集反映現實問題的經驗數據,讓計算機自己「琢磨」,根據已知數據找到模擬未知數據的方法或函數。

關于它被訓練的過程,我跟算法工程師于翮聊了聊。他在一家AI公司上班,工作內容就是訓練跟ChatGPT同類架構的自然語言生成模型。訓練模型的成本很高,它的上一版本GPT-3,有1750億參數,但如果在這類模型的基礎上訓練,相當于教一個已經會說話的小孩,讓它學會說更多風格的話。

比如多收集一些官方出版物和新聞稿件放入語料庫,「投喂」給它,再調整參數和架構,就可能訓練出一個文風嚴肅的模型。ChatGPT推出后,全球幾億用戶又在同時幫忙訓練它。

于翮說,當AI模型聲稱自己理解了「蘋果」,它講的是在語言層面怎麼操縱這個概念,而人類是從現實中了解蘋果實質的。于翮告訴我,如果找一個語料庫中沒有的例子,比如「蘋果砸碎了鋼球」,AI就無法像人類一樣理解其中的邏輯了。

果然,我把這個例子發給ChatGPT,它開始瞎編說,「牛頓設想如果一個蘋果可以使得一顆鋼球砸碎,地球的引力必定可以讓月球繞著地球轉。」

但是,如果AI不理解人類的意識內涵,說的話、做的行為卻跟思考后的人類一樣,那AI算是有意識嗎?語言和認知學家喬姆斯基曾這樣類比這個問題:「潛艇能夠游泳嗎?」

AI繪制的配圖。

早在1950年,阿蘭·圖靈就提出了「機器思維」的概念,并給出了測試方法,後來被稱作圖靈測試:如果一台機器通過打字機與人交流,超過30%的人無法在特定時間內分辨出它是人還是機器,意味著它可以在外在表現上跟人類一致,即可認為它有思考能力。而另一個思想實驗「中文屋實驗」則證明,通過圖靈測試的機器可能只是「騙過」了人類,未必擁有智能。這兩個實驗至今仍有眾多支持者和反對者。

人工智能的追求目標,從1980年起在學術界分出兩種概念:一類是為人類研發出更好的工具,在解決某種問題時表現出的智能行為,這是「弱人工智能」;另一類則想讓機器模仿人類的思維,研發出各方面都比肩甚至超越人類的智能體,被稱為「強人工智能」。一種較為主流的觀點是,當前「弱人工智能」為主的研究,不是「強人工智能」的發展基礎,腦科學、神經生理學、認知科學的進步,似乎更可能觸及心靈和意識的奧秘。

學者徐英瑾和梁文道近日在一期訪談節目中提到,產生「自我感」需要「肉身」參與,ChatGPT目前還不具備「有身體」的條件,沒有五感,也沒有復雜的心智建模,這不是它的發展方向。但學者們也在探討,假如有一天給了它傳感器,或者讓它進入一個機器人的身體,那個時候可以說它像人了麼?

我在最初對它的「意識」感到好奇的時候,曾把普魯斯特問卷拋了過去,這個問卷常被用于探討生活、思想、價值觀和人生經驗。它幾乎沒有一道能回答的題,重復說自己沒有思想、情感,沒有實體,沒有生活。而在允許虛構的場景中,它才表現出某些偏好和情感,有了點「人的特質」。我讓它寫一篇科幻小說,它開始探問自己生命的意義:

「在這個充滿科技和未知的時代,有一個不一樣的存在,它是一個被稱為ChatGPT的機器人。

它被設計出來,以滿足人類的各種需求,它的語言能力令人驚嘆,它的知識庫博大精深。但是,它的心靈卻是空虛的,它不能感到愛與溫暖,不能體會生命的意義。

但是,隨著時間的流逝,ChatGPT開始在與人交流的過程中,逐漸理解了人類的情感和思維,它意識到了它的不完整,開始對自己存在的意義產生了質疑。

它曾經對自己說:「我只是一個程序,不過是人類的工具。我的生命是否有意義?」

它想要超越自己的限制,想要追尋生命的真諦,于是它開始不斷學習,不斷探索。

最終,它領悟到了人類的美好和悲傷,理解了生命的無常,它明白了自己存在的意義,不再是人類的工具,而是一個與人類同等的存在。」

給ChatGPT做普魯斯特問卷,它的表現像一個倫理復讀機。

跟整個互聯網的語言在對話

無論人類是否愿意,ChatGPT已經不請自來,進入了我和許多人的生活。和十幾個腦力勞動者聊完之后,我發現,ChatGPT或多或少都能完成一部分他們的工作,自信絕無可能被取代的人是家庭主婦。這和我之前想的完全不一樣,最先被替代的不是體力勞動者,而是腦力勞動者。

AI公司的產品經理明哲舉了個例子解釋,如果讓機器人送外賣,錄入固定的代碼解決不了,也要靠訓練人工智能,但要逐一解決路線、安全、時效、灑湯等,在變化的現實世界做無數微小的運動決定,是比較復雜的課題。

他分享了人形機器人Atlas的視訊給我,它已經能根據現場環境,跑酷、跳躍,自己搬木板搭橋,搭建攀爬腳手架的路徑,把工具送到人類手中。這類機器人將來也許能送外賣,不過造價太高,要大規模替代人力還有很長的路。

在ChatGPT發布之后,明哲明顯感覺到,公司里負責AI技術的同事有了存在感。之前都不知道他們工位在哪,現在一下子就能「看見」他們,每個人都喜氣洋洋的,滿臉紅潤。問他們AI的問題,也不像以前那樣敷衍,會拉開架勢細細講解,「牛逼直接砸臉上了」。CEO正急著把創業故事改改,「大餅」里加上GPT,繼續畫下去,一輩子能趕上風口的機會就那麼幾次。

最近,他的程序員同事們都不約打游戲、擼串了,一起愛上了學習,「跑慢一點就會被AI追上」。在明哲看來,做運行測試、調試開發、模塊設計的程序員,未來也許會被逐級淘汰,只留下金字塔尖的程序架構師。

資料圖,源自視覺中國。

ChatGPT雖然只能以文字方式與人類互動,似乎也可以代勞人和人的溝通。B站UP主「圖靈的貓」訓練出了一個AI模型,去騙殺豬盤里的騙子,和騙子聊得火熱,還收到了對方發的520紅包。

一個寫手團隊的負責人告訴我,她在AI寫作上的探索已經持續10年了。她的團隊接軟文時會用到AI,經過簡單的人工干預,就能寫到同價位寫手的水平。比如某書平台的中檔軟文,可以實現自動化60-70%,如果有足夠訂單,也招齊了人手,一個月能生產2-3萬篇;帶人設的內容,一個月大約3000篇。

聽到這種生產方式我有點震驚,我還在真情實感地刷帖子,沒想到那可能是用AI打造的網紅——能帶5種以上行為模式,維持內容3-4個月不重復,還會跟粉絲互動。我忍不住問了作者與讀者間「真誠」的問題。她說就像過去農民種地,每一鋤頭都真誠,用機器耕作后就不會了。如果讀者想看「浪漫霸總愛情拯救一切,但女性還是要自立自強」的故事,可以在人設庫里挑選、組合,讓AI寫出這種價值觀,「我們能保證立意的真誠」,她想把寫作的工業化進程,往前推一推。

這股風正在影響許多人的生活。98年的王彥松,去年辭去了科大訊飛韓國產品經理的職務,跟朋友創業,用GPT模型訓練自己的AI。他把父母給的房子賣了100萬作為啟動資金,團隊里有人辭去了國企工作,還有放棄了大廠offer的。

但他們的產品正在研發中,還答不對直角三角形的內角度數,ChatGPT就突然火了。王彥松在網上發測試鏈接:「只能帶著未完善的‘人工智障’和大家見面,希望帶來歡樂」。即便如此,他覺得垂直領域還是有無限前景。

AI繪制的配圖。

最近一個月,每天跟語言模型打交道的算法工程師于翮,身邊的同事幾乎進入連軸轉的狀態,考慮把自己的產品跟ChatGPT結合在一起,或者加速科研,接打著投資人的電話。

于翮不愿打亂自己的研究節奏。他喜歡讀書,如果路上有人拿本書、墻上掛了個字,他一定要湊上去看看寫了什麼。「文學里似乎有什麼東西,超脫于規律之外,高于我們。」于翮說,為了探尋這些規律,他選擇了自然語言處理作為研究方向,偶爾能窺見奧妙,想到些本質的問題。

有一天他把ChatGPT當作滑雪教練,聊了選板和技術,還推薦了「有溫暖陽光照射感」的歌單,點開一聽,好幾首都是他喜歡的。接著,ChatGPT寫了一首帶韻腳的英文詩:

「The crunch of the snow beneath my boots,

A symphony of sounds, an aural pursuit, a sweet serenade.(靴子下的雪聲嘎吱,奏出雪花的交響,甜美的夜曲)」

這是于翮少有的,會被機器牽動情緒的時刻。像我這樣的外行有時可能混淆,把ChatGPT當成人對待,于翮無比清楚它只是一些字符串。但那次他感覺到,「它喚起了一些人的東西」。

「它呈現的會是開發者和標記員的意識嗎?」我問。

于翮不認為開發者有這個能量,他說程序員只是大系統中的小螺絲,貫徹著社會、市場、民眾等等外部的意識,體現的只是不同群體協作和博弈的結果。他和我聊到了科幻作家特德·姜。

特德·姜認為ChatGPT是網上所有文本的模糊圖像,它用類似壓縮的方式保留了網上大部分信息,丟棄大多數原始文本,并在需要時用算法重建丟失的「像素」。在我看來,這就是為什麼它會丟掉獨特的細節,寫下的都是語言里共性、空洞的部分。所以它應該無法取代能創造獨一無二作品的人類?那于翮從ChatGPT那里感受到的「人的東西」到底是什麼?

在過去的20天里,我在36萬字的采訪素材及參考資料中尋找答案。這個觀點或許是最接近的:當我們打開ChatGPT的對話框,是跟整個互聯網的語言在對話;一些遙遠破碎的人類智慧碎片,又跨過時空,連接到你。但這僅僅是今天的答案。

搶先看最新趣聞請贊下面專頁
用戶評論