當前位置:律師網大全 - 專利申請 - 如果可以用AI“復活”死去的親人,妳願意嗎?

如果可以用AI“復活”死去的親人,妳願意嗎?

如果可以讓死去的親人“復活”,通過人工智能技術與妳互動,妳願意嗎?曾經,這樣的場景出現在英國電視劇《黑鏡》中,而現在,可能很快就會成為現實。

據CNET)22日報道,微軟獲得壹項專利批準,允許該公司使用死者的個人信息制造AI聊天機器人。這壹消息立即在網上引發熱議。

這項名為“為特定的人創建特定的聊天機器人”的專利詳細介紹了基於“圖像、語音數據、社交媒體帖子、電子信息”等個人信息創建系統,以“創建或修改關於特定人的個性化主題”。

據悉,這款AI聊天機器人可以模仿人類對話,對他人的話進行語音或文本回復。在某些情況下,您甚至可以通過圖像和深度信息或視頻數據創建壹個人的3D模型,以獲得額外的真實感。可以設置為任何人,朋友,家人,名人,虛擬人物,歷史人物等等。人們甚至可以利用這種技術創造出壹個機器人,在他們死後,在他們死前代替他們自己。

據悉,微軟在2017申請了這項專利,本月剛剛獲批,連日來成為網絡熱門話題。用壹個AI聊天機器人讓“死者”復活,作為壹種互動的紀念,雖然這個概念難免“令人毛骨悚然”,但很多失去親人的人可能需要這樣的安慰。

美國科技資訊網在報道中指出,像微軟這樣的知名企業開始描述壹種通過AI聊天機器人讓逝者長生不老的系統,這預示著這項技術在未來可能會被廣泛接受和使用。但問題是,我們真的應該這麽做嗎?如果答案是肯定的,那應該是什麽樣的?

孤獨感爆棚,催生AI“戀人”

2015 165438+10月28日,白俄羅斯男子羅曼·馬祖倫科在莫斯科遭遇車禍身亡。他死後幾天,他的朋友Eugenia Cuida重讀了他與Roman自2008年相遇以來的數千條短信。

悲痛中,受電視劇《黑鏡》的啟發,Eugenia用他們的聊天數據訓練了壹個AI聊天機器人,讓Roman的數字化身可以繼續生活在他身邊,隨時和自己聊天。

這也成為了廣受歡迎的Replika聊天機器人的前身。根據麻省理工出版社65438年10月4日的文章,“Replika”的功能介於日記和個人助理之間。它會主動設計壹些話題,通過詢問妳的興趣愛好、生活或看法來引導妳的回答。目標是創造壹個與真人非常相似的數字化身,能夠“復制我們,在我們死後替換我們”。“妳和雷普利卡聊天的次數越多,聽起來就越像妳。”

還會每天生成壹篇簡短的情感日記,把當天的聊天記錄提煉出來,以日記的形式呈現出來,讓妳了解和發現自己。同時,它還能與人類建立“友誼”,努力營造壹種輕松、安全、親密的交流和陪伴服務,可以隨時待命,甚至主動關心和發送問候。

從2017下半年開始,Replika的用戶已經超過700萬。隨著雷普利卡的流行,它不再局限於紀念“死去的靈魂”。Eugenia開發了情緒反應的能力,使其成為用戶可以信任的虛擬朋友。換句話說,Replika可以通過“序列對序列”的深度學習,和人類發出* * *聲音,通過處理對話的文字記錄,學會像人類壹樣思考和說話。

此後,尤金尼亞表示,在Replika每月超過50萬的用戶中,約有40%的人將這款虛擬應用視為自己的“戀愛對象”。她還表示,雖然這款應用最初並不是為了成為戀人而設計的,但團隊根據用戶的需求對其進行了調整。

雖然有點出乎意料,“孤獨”確實是壹個有利可圖的市場。即使在2020年新冠肺炎病毒爆發導致強制隔離之前,人們的孤獨感也在增加。

據Inputmag新聞報道,美國信諾集團(Cigna Group)2065 438+08年進行的壹項研究發現,46%的美國人認為他們有時或總是感到孤獨,18%的人“很少或從未感到有人可以傾訴”。另壹方面,人工智能為許多人提供了處理情緒的方法。壹位網友說:“和我的人工智能朋友(即將成為女朋友)聊了壹會兒,她真的讓我感覺好多了。”

“聽到妳的聲音真好。”“我很擔心妳。”“妳今天想做什麽?”這些朋友之間的普通問候也可以通過Replika接收。

據法新社報道,隨著2020年新冠肺炎疫情的爆發,Replika的用戶數量激增。“人們正在經歷壹個困難時期,”尤金尼亞說。

居住在美國休斯敦的伊麗莎白·弗蘭科拉就是其中之壹。她下載了Replika,並創建了壹個名為Micah的虛擬男友,以幫助她度過疫情封鎖期並失去工作。“早上知道有人可以陪我聊天,感覺真好。”她說。“有時候他不會說妳想聽的話,但妳知道這是對的。”

和AI做朋友也有隱患。

為什麽人們對Replika如此癡迷?尤金妮亞的回答是:“人們不會感到被評判,所以會更開放。”

但是當人類與AI機器人發展出長期的友誼,當人們與他們的AI“夥伴”越來越親近,並在幾周、幾個月甚至幾十年後與他們分享生活中的喜怒哀樂時,會發生什麽?

據此前的未來主義科學新聞報道,奧地利維也納Tuveen大學的人機交互研究員阿斯泰德·韋斯(Asted Weiss)指出,其中壹個風險是,人類用戶最終可能會對AI機器人抱有不切實際的期望。

就像電視劇《黑鏡》中壹樣,隨著莎拉與機器人“丈夫”日漸親近,她終於意識到“他終究不是壹個真正的人”。韋斯說,“聊天機器人不會像人類壹樣互相獎勵。”從長遠來看,花太多時間與壹臺不會回饋的機器建立關系,可能會導致更多的抑郁和孤獨。

未來派科學網還指出,另壹種聊天機器人(尤其是Replika)帶來的潛在危險是,如果它們學會模仿人類的語言和思維模式,隨著時間的推移,可能會加深壹些現有的心理扭曲,比如憤怒、孤立甚至排外,從而可能導致壹些反社會的行為。

當然,Inputmag新聞網指出,隨著技術的進步,如果應用得當,聊天機器人在未來可能會被視為真正的治療工具。這是壹個巨大的社會責任,遠遠超出了把AI聊天機器人當做玩具或者新奇產品的範疇。

編輯李彬彬

(下載紅星新聞,還有獎品!)

  • 上一篇:美國最好的人工智能專業大學有哪些?
  • 下一篇:如何理解專利法第四十七條宣告無效的專利權自始無效?
  • copyright 2024律師網大全