當人工智慧實現關係自動化時

當人工智慧實現關係自動化時


一個當我們評估人工智慧的風險時,我們忽略了一個關鍵威脅。批評者通常強調三個主要危險——工作中斷、偏見和監視/隱私。我們聽說人工智慧將導致許多人失業,從皮膚科醫生到卡車司機再到行銷人員。我們聽說人工智慧如何將歷史相關性轉化為強化不平等的預測,以便量刑演算法預測黑人的再犯率高於白人。我們聽說應用程式可以幫助當局監視行人,例如亞馬遜追蹤哪些駕駛者的視線離開了道路。

然而,我們不談論的同樣重要:當一方機械化時,人際關係會發生什麼事?

關於人工智慧危險的傳統說法讓我們忽略了它在一場日益嚴重的「人格解體危機」中所扮演的角色。如果我們擔心孤獨感和社會分裂的加劇,那麼我們應該更加關注我們促成或阻礙的人際關係。這些聯繫正因科技的湧入而改變。

作為一名科技對人際關係影響的研究員,我花了 5 年時間觀察並與 100 多名從事諮詢或教學等人性化工作的人員以及自動化工程師和監督管理員進行交談。我發現,將技術注入人際關係會使工作變得無形,使工人必須證明自己不是機器人,並鼓勵公司超負荷工作,將他們的勞動力壓縮到更小的時間和空間增量中。最重要的是,再好的AI,當遇到一半是機器時,就沒有人情味了。

這項工作的核心是見證。 「我認為每個孩子都需要被看到,就像真正被看到一樣,」教師兼私立學校校長伯特告訴我。 (為了保護隱私,本文中的所有名字都已更改。)「我認為孩子並沒有真正深入了解它。我認為,只有當他們感到被向他們學習的人所看到時,他們才會真正被這些信息或內容所吸引。

許多人依靠清楚地看到對方來做出自己的貢獻:客戶康復、學生學習、員工保持積極性和參與、客戶滿意。我把這種見證工作稱為“連結性勞動”,它既創造價值,又對許多人來說具有深遠的意義。帕梅拉是灣區的非裔美國教師,她回憶起她自己的中學老師如何花時間發現她的選擇性沉默症是對她的家人不斷搬家的反應。 「我想,『我想成為這個城市孩子們的老師。我想成為我想要的、我需要的、我最終得到的老師。

然而,這種勞動力仍然受到自動化和人工智慧的威脅。就連治療這個最依賴人與人之間情感連結的職業之一,也看到了從 Woebot 到 MARCo 等自動化機器人的入侵。正如邁克爾·巴巴羅 (Michael Barbaro) 所指出的 每日報 當 ChatGPT3 回答他關於過於挑剔的問題時:“哦,我感覺自己被看見了——真的被看見了!”

閱讀更多: 人工智慧系統應該享有權利嗎?

技術專家認為,社會情感人工智慧解決了人類表現、取得和可用性的問題,這有點像卡茨基爾度假村的客人抱怨食物很糟糕——而且分量這麼小!毫無疑問,人類的連結性勞動是令人擔憂的,充滿了判斷和誤認的風險——正如帕梅拉反覆面對的那樣,直到她遇到了最終聽她講話的中學老師。然而,連結勞動的工作條件塑造了人們看見對方的能力。

「我不會邀請人們敞開心扉,因為我沒有時間,」兒科醫生珍娜說。 「這對病人來說是一種極大的傷害。我的手放在門把手上,我正在打字,我想,’讓我們給你拿藥,然後帶你出門,因為今天早上我還有很多其他病人要去看望。

維羅妮卡向我們展示了社會情感人工智慧的一些成本。她是一位舊金山的年輕白人女性,被一家治療應用新創公司聘為“線上教練”,幫助人們與該應用程式互動。她被禁止提供建議,但客戶似乎很高興將教練視為私人顧問。 「我喜歡感覺自己有影響力,」她說。

然而,儘管這部作品具有個人意義和情感衝擊力,維羅妮卡自己的語言卻將她的影響力最小化了。她“喜歡感覺自己有影響力”,但很快又補充道“儘管我並沒有真正做任何事情。我只是為他們加油,有時幫助他們解決一些困難。正如人工智慧掩蓋了標記數據或轉錄音訊的無形人類軍隊一樣,它消除了它所依賴的自動化人類工人的連接勞動。

維羅妮卡也發現自己面臨一項新的存在主義任務:證明她是人類。 「很多人都說,『你是機器人嗎?』」她告訴我。我問她如何消除這種印象。 “我基本上只是嘗試與他們閒聊,問另一個問題,如果合適的話也許可以分享一些關於我自己的信息。” 從本質上講,維羅妮卡的連結勞動(通常是典型的人類活動)不足以傳達她的人性,她必須為習慣機器的客戶驗證這一點。

最後,維羅妮卡可能發現這份工作令人感動、謙卑且強大,但她離開了,因為公司將客戶名冊增加到了難以維持的水平。 “到最後,他們試圖使用演算法對一切進行建模,就像,你無法解釋那些時刻工作的實際情感負擔。”該公司已經確信這些教練只不過是該應用程式的女僕,所以不顧一切地吸引了新客戶。

在人格解體危機中,「被看見」已經供不應求。被忽視的感覺很普遍,激起了美國和國外工人階級的憤怒,並在「絕望死亡」、自殺和服藥過量死亡等社會危機中普遍存在,這些危機大大降低了預期壽命。

儘管許多人仍然與家人和朋友關係密切,但有一種關係已經改變了:公民生活和商業的「弱連結」。然而研究表明,這些連結有助於將我們的社區團結在一起,並為我們的健康做出貢獻。 2013 年英國一項題為「效率被高估了嗎?」的研究研究發現,與咖啡師交談的人比從咖啡師身邊走過的人更能獲得幸福感。

大型科技公司為我們的去個人化危機提供的解決方案就是所謂的個人化,例如個人化教育或個人化健康。這些進步旨在對抗標準化帶來的異化隱形性,讓機器「看見」我們。但是,如果對我們和我們的社會結構來說,重要的不僅僅是被別人看到,而且被其他人看到呢?

在這種情況下,像伯特、珍娜和維羅妮卡這樣的工作的工作條件就很重要了。限制客戶或學生名冊和工作時間的政策將有助於減少許多群體的超負荷,從住院醫師到公立學校教師再到家庭工人,國會最近提出的《國家家庭工人權利法案》也將有助於減少這些群體的負擔。

我們也應該抑制對數據分析的普遍熱情,因為數據輸入要求通常落在負責建立聯繫的人身上。同樣重要的是針對連接勞動力的新技術的迫在眉睫。至少,社會情感人工智慧應該被貼上這樣的標籤,這樣我們就可以知道我們何時與機器人交談,並且可以識別並選擇人與人之間的連結。然而,最終,我們所有人都需要承擔起保護我們中間的人際關係的責任,因為這些都是人工智慧春天帶來的不為人知的成本。

人工智慧經常被當作一種「解放」人類去做其他更有意義的工作的方式來出售。然而,連結勞動是人類所做的最有意義的工作之一,技術專家仍在努力爭取它。雖然人類確實是不完美的,而且會評判別人,但我們也知道,人類的關注和關懷是目標和尊嚴的源泉,是歸屬感的種子和我們社區的基石;然而,我們卻把這些知識藏起來,為一個導致我們日益人格解體的行業服務。面臨風險的不僅是個人或他們的工作,還有我們的社會凝聚力——人類之間相互成就的連結。

More From Author

揭開7777天使的深刻意義

揭開7777天使的深刻意義

2024 年人工智慧統計:美國和英國企業投資激增超過 2,500 萬美元

2024 年人工智慧統計:美國和英國企業投資激增超過 2,500 萬美元

Leave a Reply

Your email address will not be published. Required fields are marked *

Recent Comments

No comments to show.

Categories