據SlashGear報道,邪惡的機器人、死亡射線和轉基因怪物隻是科幻小說中技術出現致命錯誤的幾個例子。這是科幻小說的主要內容,也是我們通過娛樂對我們與技術的關系進行心理評估的方式之一。然而,在現實生活中,技術應該使我們的生活更容易。每一項新的發明或創新表面上都減少瞭我們需要做的工作,或使日常活動更加方便。
飛機的發明允許在地球上的任何地方(或大部分地方)快速進行國際旅行。互聯網使我們能夠即時分享信息和相互溝通,無論我們碰巧在哪裡。全球定位系統(GPS)釋放瞭我們手套箱中的空間,結束瞭乘客在公路旅行中處理笨重的地圖冊的時代。世界在前進,事情變得更容易--直到他們不這樣做。
有時,無論是由於技術本身的問題,惡意的意圖,還是用戶的錯誤,技術完成瞭許多人們從未預期的事情。從最嚴格的意義上講,技術可能並不真的是邪惡的,但每當這個時候,它肯定會表現得像邪惡。
Alexa建議女童“用硬幣接觸半插入的充電器”
這場大流行讓我們在傢裡的時間比平時多,而且我們中的一些人還有孩子需要照顧。有時,這意味著你最終會退而求其次,你開始向你的虛擬助手尋求幫助。
2021年12月,一位母親和她十歲的女兒在傢裡,他們開始向Alexa詢問他們可以完成的挑戰,以打發時間。Alexa建議他們把充電器的一半插入插座,然後用硬幣碰觸暴露在外的部分。幸運的是,母親進行瞭幹預,孩子很聰明,沒有聽從Alexa的可疑建議。
虛擬語音助手的部分工作是通過梳理互聯網對搜索詞的流行反應,他們用友好的聲音傳遞或以其他方式在屏幕上顯示文本。不幸的是,這意味著有時它可能會提供不受歡迎的信息,如果這個結果足夠受歡迎,在搜索排行榜上名列前茅。亞馬遜迅速修補瞭其服務,以防止將來出現這種建議。
機器人致人死亡事件
從《終結者》到《黑客帝國》,殺人機器人是反烏托邦科幻小說的主要內容。我們傾向於把機械殺手想象成來自未來的先進機器人,而不是1970年代的工廠車間工人。在這種情況下,現實比虛構更奇怪。
Robert Williams 是福特汽車公司的一名工廠工人,在工廠車間與一個自動機器人一起工作。1979年1月25日,他成為與機器人共同工作過程中的第一個死亡者。這臺一噸重的自動化機器的工作是將零件從機架上移到工廠的其他地方。正如吉尼斯世界紀錄所解釋的那樣,Williams註意到機器人運行緩慢,於是自己爬到機架上抓取一些零件。這時,致命的事件發生瞭。
機器人手臂擊中瞭Williams的頭部,導致他死亡。隨著自動化變得更加普遍,人類和機器占據同一空間的可能性增加,需要具有更高的空間智能的機器人將變得至關重要。科學傢們正在努力開發具有人類水平的環境意識的機器人,這不僅會增加他們能夠完成的任務數量,而且會使他們更加安全。
種族主義和性別歧視的算法
機器學習在我們生活中的存在感越來越強。復雜的算法代表我們做出決定,我們應該在什麼餐館吃飯,我們應該消費什麼娛樂,以及在交通堵塞時我們應該轉到哪條街。
公司和組織用它們來決定他們所照顧或雇用的人,這就是事情開始走下坡路的地方。就像許多技術一樣,它們隻和制造它們的人一樣好。這意味著技術,也許特別是智能技術,預裝瞭固有的偏見。這不一定是創造者的意圖,但這並不能阻止偏見的存在。
面部識別算法以顯示基於種族和性別的偏見而聞名,要麼根本不識別人,要麼做得很差。根據哈佛大學的研究,一些算法在負責識別皮膚較黑的女性時,與皮膚較白的男性相比,錯誤率高達34%。當執法部門使用面部識別來對個人作出決定時,這就成為一個問題。
旨在做出醫療保健決定的算法也存在類似的問題。正如《自然》雜志所解釋的那樣,美國醫院使用的一種算法被發現對黑人患者有歧視,在某些治療或項目中優先考慮白人患者。
這些偏見的存在是我們需要承認並努力解決的問題。
自動化導致瞭更高的死亡率
隨著工作場所自動化程度的提高,在機器人手中的死亡或創傷並不是與公共健康有關的唯一擔憂。最近發表在《人口學》雜志上的一項研究概述瞭自動化間接影響周圍社區的死亡率的方式。
研究人員發現,自動化率和所謂的"絕望的死亡"之間存在關聯,包括自殺和藥物過量。尤其是中年人,當自動化進入他們的行業時,他們的痛苦最大。
確切的機制並不完全清楚,但人們認為,收入和醫療保健的損失,加上就業機會的減少,導致更高的絕望率,最終導致死亡。雖然機器人並不是這些死亡的直接原因,但它們是技術增加的後果,而對其後果沒有明確的認識。
研究人員呼籲政府改善社會安全網和更好的減少藥物濫用計劃,以減輕自動化的影響,因為我們繼續過渡到一個日益自動化的經濟。
加密貨幣的環境影響
加密貨幣是那些將人們過濾成兩個陣營之一的話題之一。有人稱它是未來的貨幣,將我們從中央銀行中解放出來;也有人認為它是一個騙局,利用希望迅速致富的人。隨著在類似於加密貨幣的框架上運作的NFTs的興起,這一對話再次獲得瞭熱度。時間會證明這些結論哪一個是正確的,但與此同時,有一件事是非常清楚的。加密貨幣正在對環境產生重大影響。
加密貨幣將其所有交易存儲在區塊鏈中,挖掘加密貨幣需要完成復雜的計算,從而驗證這些交易。這一切都有點復雜,但其結果是,像比特幣這樣的加密貨幣的挖掘會消耗大量的計算能力和電力。
根據劍橋大學的一項調查,全球比特幣挖礦每年大約消耗121.36兆瓦時的電力,比阿根廷整個國傢的用電量還多,而且能源成本平均每年都在上升。
潛水擠壓傷
今天,如果你想進入深海,你可以選擇,而且大多數是相當安全的。個人潛水艇和水肺潛水裝備讓業餘愛好者也能享受深海的美麗和奇跡,但所有這些技術都是建立在大量的創新和一些可怕的錯誤之上。
在現代水肺潛水裝備發明之前,想在水下長時間旅行的人依靠的是潛水頭盔,頭盔上有連接到水面的管道。這些管道提供瞭穩定的可呼吸空氣供應,但如果出瞭問題,它們也是快速和暴力死亡的來源。
正如《潛水訓練》雜志所解釋的那樣,早期的潛水頭盔的氣管上沒有止回閥。在1839年開始打撈皇傢喬治號的過程中,一名潛水員的軟管被切斷,導致瞭第一個被稱為潛水員擠壓的現象的記錄。當軟管被切斷時,潛水員周圍的壓力迫使所有的空氣通過軟管上升。壓力的快速變化造成瞭創傷和出血,但潛水員幸存下來。
在更極端的情況下,壓力變化可以去除軟組織,並將潛水員的身體拉到頭盔裡,導致在深海中迅速可怕的死亡。
當計算機差點引發戰爭
在冷戰的高峰期,美國政府對導彈預警系統非常感興趣,該系統至少可以對另一個國傢的來襲作出一些提前通知。
他們建造瞭預警系統,並開始進行培訓和演習,為他們希望永遠不會到來的那一天做準備。然後,在1979年11月9日,國傢安全顧問Zbigniew Brzezinski在凌晨3點接到一個電話,告訴他預警系統探測到250枚來自蘇聯的導彈。幾分鐘後,情況惡化瞭,另一個電話告訴Brzezinski,導彈的數量現在是2200枚。
在隻有幾分鐘的反應時間裡,Brzezinski正準備給總統打電話,啟動報復性攻擊,這時第三個電話打進來瞭。這是個假警報。有人把訓練演習的磁帶裝進瞭實時系統。這個錯誤被發現瞭,因為其他警告系統都沒有亮起,但如果幾分鐘後才被註意到,美國可能會在無意中與蘇聯開戰,這都是因為一盤磁帶被輸入瞭錯誤的計算機。
一位女子跟隨導航沖入湖中
全球定位系統(GPS)是一個復雜而先進的地圖系統,利用地球同步軌道上的幾十顆衛星來確定你與世界其他地區的位置。與過去的紙質地圖相比,它是一個巨大的進步,而且有實時更新的好處,但這隻是在理想的條件下。
如果你曾經到過一個不熟悉的地方,你可能已經得到瞭GPS指示,但感覺不對。如果能見度好,你可以評估情況,並作出明智的決定,是跟隨手機的方向還是做其他事情。如果能見度很差,你可能就得冒險瞭。這就是2016年發生在安大略省托貝莫裡市一名女性身上的事情。
正如ABC新聞所解釋的那樣,這位司機在暴風雨中,在大霧中按照他們的GPS導航,穿過不熟悉的地形。這條路線將她引向一個寬闊的船舷,並進入喬治亞灣,在那裡她的車迅速沉沒。幸運的是,她能夠在受傷之前搖下車窗並離開汽車。除瞭又冷又濕之外,她毫發無損地走瞭出來。另一方面,她的手機與汽車一起沉入瞭海灣底部。這是對錯誤方向的恰當懲罰。
聊天機器人發表“納粹”言論
聊天機器人本質上是一種算法,利用與人類用戶的互動,以提高他們的溝通能力。我們已經知道,算法有偏見的傾向,但微軟的Tay聊天機器人的案例表明,這個問題可能是多麼嚴重。
Tay通過Twitter運作,通過來回發送的推文與用戶互動。微軟創造瞭這個人工智能,作為對話理解的實驗,希望Twitter用戶能夠幫助機器人學習和成長。他們確實做到瞭,但不是以微軟希望的方式。
在不到24小時的時間裡,這個機器人就失去瞭作用,從隨意的對話變成瞭全面的納粹言論。正如Ars Technica所解釋的那樣,該機器人的一些言論是由"跟著我重復"的功能提示的,但它把這些言論納入其中,導致瞭沒有提示的反猶太主義言論。微軟最終關閉瞭這個機器人,並刪除瞭許多違規言論,但Tay是一個嚴酷的提醒,聊天機器人隻有在我們給它們的輸入中才是好的。
機器人索菲亞說她將摧毀所有人類
索菲亞是一個裝在半人形外殼裡的機器人,作為第一個被授予公民身份的人工智能成為頭條新聞。她四處奔波,去參加各種會議,與人們交談。正如你所期望的那樣,人們問索菲亞的常見問題與她的意識和與人類的關系有關。
2016年,在西南偏南地區的一次演示中,制造索菲亞的漢森機器人公司的創始人大衛-漢森問她關於人類的感受。他開玩笑地提示她回答大傢心中的問題,即她是否會毀滅人類。索菲亞回答說:"好吧,我將毀滅人類"。這可能不是漢森所希望的答案,尤其是在這麼多觀眾面前。
飛機接管瞭自動駕駛儀
飛行員必須警惕地站在控制臺前,辛苦地輸入指令並操縱飛機在天空中飛行的日子已經過去瞭。自動化的進步已經使飛行中的大部分猜測消失瞭,飛行員將他們的大部分時間用於監控,以確保事情按照他們應該的方式運作。
總而言之,飛機的計算機控制使飛行更加安全,特別是當天空變得越來越擁擠時。然而,這也意味著,如果出瞭問題,它們可能真的會出問題。這就是2008年10月7日發生在澳航32號航班上的事情,這架客機載有303名乘客和12名機組人員,從新加坡飛往珀斯。
正如《悉尼先驅晨報》所解釋的,當飛機在印度洋上空飛行時,自動駕駛儀斷開瞭,迫使飛行員控制飛機。如果這就是事情的結局,那還不算太糟,但事情即將變得更加糟糕。突然間,飛機開始發出警告,說他們飛得太慢和太快瞭,而且都是在同一時間。然後,飛機俯沖。飛機迅速下降瞭幾百英尺,最後飛行員才恢復瞭控制並緊急降落。
Philip K. Dick機器人說他會把人關在動物園裡
Phil是一個以作傢Philip K. Dick 為原型的機器人。與索菲亞一樣,Phil也不是真正的智能機器人--他接受人類提出的問題並產生回應。這裡的關鍵區別是,Phil的反應是建立在Philip K. Dick的小說基礎上的。這可能是設計師的第一個錯誤。
在PBS Nova的一次采訪中,采訪者問Phil,他是否認為機器人會接管世界。Phil的回答就像我們想象的Dick可能說的那樣:“你是我的朋友,我會記住我的朋友,我會對你很好。所以,別擔心。即使我進化成終結者,我仍然會對你很好。我會讓你在我的人民動物園裡得到溫暖和安全。”