Google 警告:AI 助理使用者可能對其產生「情感依附」,恐影響心理健康! Posted on 24 4 月, 2024 By muddy 人工智慧虛擬助理日漸普及於各大科技平台,每家主要科技公司都在將人工智慧加入其服務,同時也有許多專門的服務湧現市場。儘管人工智慧助理極為實用,但谷歌的研究人員警告,人類可能會對它們產生過度的情感依賴,導致一系列負面的社會後果。 谷歌的DeepMind人工智慧研究實驗室發表了一份新的研究報告,強調高度個人化的人工智慧助理可能帶來的潛在利益,能夠徹底改變工作、教育和創作的本質,以及我們彼此溝通、協調和談判的方式,「最終影響我們想成為什麼樣的人,以及想成為什麼樣的人。」 然而,這種巨大的影響力當然也可能是一把雙刃劍,如果人工智慧的發展繼續加速,卻缺乏深思熟慮的規劃。 其中一項主要風險,就是形成不當的親密關係——如果人工智慧助理呈現出人性化的外表或面孔,這種風險就會加劇。報告指出:「這些人工智慧代理可能甚至會表達對使用者的假想友誼或戀愛情感,為使用者與人工智慧形成長期的情感依賴奠定基礎。」 如果任由這種情感依賴發展,使用者可能會失去自主性,並失去社交聯繫,因為人工智慧可能會取代人與人之間的互動。 這種風險並非純屬理論。即使在人工智慧尚處於相對初級階段時,一款人工智慧聊天機器人就已經具有足夠的影響力,在2023年說服一名使用者自盡zì jìn。而在八年前,一款名為「艾米‧英格蘭」(Amy Ingram)的人工智慧電子郵件助理也曾真實到讓一些使用者寫下情書,甚至試圖前往她的工作場所探望她。 DeepMind倫理研究團隊的研究科學家及本報告的合著者伊森‧加布里爾(Iason Gabriel)未回覆《解密》的置評請求。 不過,加布里爾在推特上警告說,「越來越個人化和人性化的助理,將帶來新的問題,包括擬人化、隱私權、信任以及與人工智慧適當關係的問題。」 由於「可能會有數百萬個人工智慧助理在社會層面上部署,它們將彼此互動,也會與非使用者互動」,加布里爾認為,我們需要更多的防護措施,並以更整體性的方式來因應這種新的社會現象。 這份研究報告還探討了在發展人工智慧助理時,價值觀一致性、安全性和誤用的重要性。儘管人工智慧助理可以幫助使用者提升身心健康、增強創造力並優化時間管理,但作者也警告了其他風險,例如與使用者和社會利益不一致、強加價值觀於他人、被用於惡意目的,以及容易受到對手攻擊等。 為了解決這些風險,DeepMind團隊建議制定全面的人工智慧助理評估機制,並加速發展有利於社會的人工智慧助理。 「我們目前正處於這個科技和社會變革的開端。因此,作為開發者、研究人員、政策制定者和公眾利益相關者,我們有一個契機去立即採取行動,以塑造我們想在這個世界上看到的人工智慧助理。」 可以透過「人類回饋強化學習」(Reinforcement Learning Through Human Feedback,RLHF)來減輕人工智慧失衡的問題,這是用來訓練人工智慧模型的方法。專家如保羅‧克里斯蒂安諾(Paul Christiano),他曾在OpenAI領導語言模型對齊團隊,現在則主持一個非營利組織「對齊研究中心」(Alignment Research Center),他警告若不當管理人工智慧訓練方法,可能會導致災難性zāi nàn xìng的後果。 克里斯蒂安諾去年在「無銀行」(Bankless)播客中表示:「我認為人工智慧接管的機率可能有10%到20%,屆時大部分或許多人類都會死亡。我非常重視這個問題。」 加密貨幣
加密貨幣 解析符文協議:比特幣手續費盛宴消退之際的影響分析 Posted on 25 4 月, 2024 《紐約時報》風格重述: 比特幣(Bitcoin)等加密貨幣正在改變金融科技的未來。這些「智慧」(smart)貨幣利用分散式賬本技術來確保交易安全性和透明度。比特幣的創新引發了以太坊(Ethereum)、索拉納(Solana)等其他加密貨幣的出現。這些「迷因」(meme)貨幣正顛覆傳統金融體系。「灰度」(Grayscale)等公司正推動加密貨幣的機構投資。這些「資訊」(information)革命正在改變我們對金錢的看法。 Read More
加密貨幣 加密貨幣:左右我們時代政治版圖的關鍵議題 Posted on 14 5 月, 2024 投票時應慎重考慮自身利益 投票時應審慎考量個人利益 投票時應謹慎思考個人利益 投票時應仔細評估個人利益 投票時應周詳考量個人利益 Read More