91人人爽人人澡人人爽人人精品_久久久久久网站精品免费_色婷婷狠狠躁日日躁夜夜躁_一个人在线日本www_99久久精品在_综合狠狠久久_久久久久久精品精品夜免费啦 _精品久久影院国产

咨詢熱線:021-80392549

為什么人工智能需要強大的道德指南針才能實現(xiàn)積極的未來

放大字體  縮小字體 發(fā)布日期:2022-11-15     來源:spiceworks     瀏覽次數(shù):428
核心提示:2023 年,我們將開始看到一種提供數(shù)據(jù)、測試和監(jiān)控結果的方法,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設想
       2023 年,我們將開始看到一種提供數(shù)據(jù)、測試和監(jiān)控結果的方法,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設想的機器人技術的三個基本定律一樣。Macami.ai 的聯(lián)合創(chuàng)始人兼首席執(zhí)行官 Carlos Martin 強調,隨著我們在合作中共同成長,需要在道德上合理的 AI 進化。

       1942 年,作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《Runaround》中介紹了機器人三定律:

       第一定律:機器人不得傷害人類,或因不作為而讓人類受到傷害。
       第二定律:機器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。
       第三定律:機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。

       在這個故事以及隨后的故事中,如我、機器人、二百周年紀念人或機器人系列,阿西莫夫描繪了一個人類在技術上遠比我們先進的世界,智能機器人幫助完成家庭日常任務是一種商品,在那里他們是老人的陪伴,孩子的保姆,也是工人。這些機器人有所謂的正電子大腦,一種管理和處理它們的視覺、智能和運動功能的 CPU。

       在我們這個時代,可供企業(yè)和大眾使用的是所謂的狹義人工智能;根據(jù)手頭的任務,可以通過單獨的渠道或 API 訪問這種類型的人工智能。例如,對于自然語言處理,必須連接到一個或多個提供該類型 AI 的特定通道/API。對于計算機視覺,還必須連接到一個或多個特定通道/API。機器學習算法也是如此。除了實驗性之外,我們今天還沒有涵蓋所有內容的人工智能。當然,有一些實驗性的人工智能技術試圖將其提升到一個新的水平,被稱為通用人工智能,甚至更進一步,比如被稱為 PLATO 的人工智能,

       人工智能對我們生活的深刻影響

       企業(yè)和公眾使用的技術被認為是窄人工智能。即使人工智能處于真正的嬰兒期,我們也看到了對我們生活的深刻影響。我們看到社交媒體正在為我們提供更多重申我們信念的內容,即使它們可能是錯誤的。如果你認為登月是假的,社交媒體的人工智能會發(fā)現(xiàn)更多內容讓你感興趣。很冷。它不在乎是否還有一百萬個事實證明并非如此——它仍然會滿足你的需求。為什么?很簡單:錢。這些算法可以讓你的眼球忙于那些內容,從而為你提供更多廣告。干凈利落。

       人工智能不會犯錯:誰承擔道德責任?

       我們有一些案例,人工智能錯誤地識別了一個感興趣的人,或者人工智能視覺在識別有色人種方面存在更多問題,或者肯塔基州法院系統(tǒng)的案例,使用人工智能算法評估一個人的風險以確定保釋的可能性只是后來才發(fā)現(xiàn)系統(tǒng)不成比例地將黑人確定為更高的風險,而以前幾乎沒有區(qū)別。我們已經(jīng)看到人工智能算法會根據(jù)年齡丟棄人們的簡歷。還有微軟的人工智能 Tay 的例子,在不到 16 小時的時間里,Twitter 被教導成為一個種族主義混蛋,它開始通過其 Twitter 賬戶發(fā)布煽動性和攻擊性的推文,導致微軟將其關閉。

       人工智能與以前的編碼方法的區(qū)別在于,人工智能在很大程度上是一種統(tǒng)計算法,而以前的編碼方法或語言是確定性的 if-then-else 流。傳統(tǒng)上,我們已經(jīng)看到編碼實踐演變?yōu)楦鼑栏竦臇|西,并且演變了幾種方法和實踐:瀑布、敏捷、Scrum 等。實踐和法規(guī)也演變?yōu)楸Wo信息,例如 PCI(保護持卡人的信息) ),或 HIPAA(保護患者信息)等。

       這些方法和實踐的目的正是為混亂的開發(fā)帶來秩序,強制規(guī)劃和設計實踐,并為正在進行的任何開發(fā)帶來嚴格的測試方法。最終目標是擁有可靠、有彈性的軟件解決方案,既能解決需求,又能保護人們和企業(yè)的利益。

       如前所述,人工智能算法是不同的。華盛頓大學教授佩德羅·多明戈斯(Pedro Domingos)在他的《算法大師》一書中說得非常好:“學習算法是種子,數(shù)據(jù)是土壤,學習程序是種植的植物。機器學習專家就像農(nóng)民一樣,播種、灌溉和施肥,同時關注作物的健康狀況,否則會置身事外。” 到目前為止,還沒有普遍接受的方法可以將數(shù)據(jù)提供給當前的機器學習算法。在這些算法中也沒有幫助確定是非的護欄。

       2022 年 10 月,白宮發(fā)布了《人工智能權利法案》的藍圖,其實質是試圖確立人工智能系統(tǒng)必須安全、有效、無歧視、尊重數(shù)據(jù)隱私、公開使用并具有廣泛人工監(jiān)督的結構。在我看來,這是一個很好的開始嘗試,然而,它并沒有涵蓋最尖銳和最明顯的問題:它關注的是最終結果而不是開始。請允許我解釋一下:要使 AI 系統(tǒng)符合 AI 權利法案的所有要求,它必須首先輸入數(shù)據(jù)。干凈利落。

       我相信在 2023 年,我們將開始看到新方法的擴散和成熟,以提供數(shù)據(jù)并測試 AI 算法的結果。在我看來,我們需要以類似的方式來考慮這些算法,就像我們認為人類需要有道德和價值觀一樣,重視公平和禮貌。很難認為它們需要道德指南針,但現(xiàn)實情況是這些算法會影響人類生活,這并不總是更好。

       攜手共創(chuàng)未來

       當我們實施人工智能模型時,我們需要進行步驟、規(guī)劃和設計。這些已經(jīng)是傳統(tǒng)軟件開發(fā)過程中的常見做法。為什么不在人工智能中?我們需要問一些問題,例如這個模型是否適用于所有顏色和性別?這個模型是否被提供了等量的樣本數(shù)據(jù),這些數(shù)據(jù)公平地代表了它會影響的人?這種模式的結果是否平等地保護了公民的權利?這個算法有沒有辦法識別它不應該說的東西?

       簡而言之,人工智能是一種比傳統(tǒng)軟件更先進的技術。為什么不采用一種方法來提供數(shù)據(jù)、測試和監(jiān)控結果,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設想的機器人技術的三個基本定律一樣? 
工博士工業(yè)品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責。您若對該文章內容有任何疑問或質疑,請立即與商城(rz-tex.com)聯(lián)系,本網(wǎng)站將迅速給您回應并做處理。
聯(lián)系電話:021-31666777
新聞、技術文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com
大庆市| 通化县| 克拉玛依市| 道真| 桐乡市| 井冈山市| 新民市| 新余市| 阳城县| 广南县| 泰和县| 厦门市| 西吉县| 富阳市| 青阳县| 南漳县| 四会市| 井冈山市| 出国| 呼图壁县| 铁岭县| 吉木萨尔县| 南华县| 光山县| 桐乡市| 隆安县| 青田县| 鹿邑县| 洪洞县| 西昌市| 辽源市| 宜宾市| 亳州市| 天台县| 大安市| 荣昌县| 郧西县| 边坝县| 安吉县| 舒兰市| 交城县|