chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能使用的數(shù)據(jù)集多存在性別歧視和種族主義

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-08-08 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:上個(gè)月,李飛飛曾推薦斯坦福學(xué)者發(fā)表在Nature上的一則短文,文章指出現(xiàn)在人工智能使用的數(shù)據(jù)集多存在性別歧視和種族主義:“醫(yī)生”是男性,“護(hù)士”是女性,維基百科人物詞條中只有18%是女性,而這些女性的事跡會(huì)被頻繁鏈接到男性事跡中。這個(gè)問題的解決辦法有兩個(gè),一是規(guī)范數(shù)據(jù)集制作,二是開發(fā)納入約束機(jī)制的算法。本文介紹的Quicksilver就是其中的第一種方法。

生成示例:Andrej Karpathy

是的,你沒看錯(cuò),作為計(jì)算機(jī)視覺深度學(xué)習(xí)領(lǐng)域的頂級(jí)專家之一,特斯拉人工智能與自動(dòng)駕駛視覺總監(jiān),李飛飛高徒,維基百科沒有收錄Andrej Karpathy本人的詞條。

以下是Quicksilver為它編寫的詞條內(nèi)容(英語直譯):

Andrej Karpathy是特斯拉研究員1,2,人工智能和深度學(xué)習(xí)領(lǐng)域的專家3,4。

Andrej Karpathy是加利福尼亞州斯坦福大學(xué)的計(jì)算機(jī)科學(xué)博士生,研究方向是用于語言建模的自然語言處理(NLP)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)5。他主要在學(xué)術(shù)界工作,但去年9月,他作為研究科學(xué)家加入了特斯拉的人工智能部門OpenAI6。Karpathy的大部分研究都圍繞圖像識(shí)別和圖像理解7。他的Reddit用戶名badmephisto,同樣也是他的YouTube賬號(hào)名,來自他致力于解決的問題——魔方7。

事跡

如何實(shí)現(xiàn)完美自拍,基于200萬張圖像的研究——2015年10月30日 這些是Karpathy在研究中挑選出的頂級(jí)自拍圖像,原圖來自網(wǎng)絡(luò)。斯坦福大學(xué)計(jì)算機(jī)科學(xué)畢業(yè)生Andrej Karpathy使用來自網(wǎng)絡(luò)的200萬張自拍圖像,訓(xùn)練了一個(gè)人工神經(jīng)網(wǎng)絡(luò),用來區(qū)分哪些是好自拍,哪些是差自拍。他的神經(jīng)網(wǎng)絡(luò)包含1.4億個(gè)不同的參數(shù),可以為輸入的數(shù)百萬張圖像輸出結(jié)果。他得出的結(jié)論是:自拍的好壞很大程度上取決于圖像風(fēng)格,而不僅僅是人的外貌。10

特斯拉聘請(qǐng)深度學(xué)習(xí)專家Andrej Karpathy領(lǐng)導(dǎo)Autopilot——2017年6月21日 ……(略)

上任兩年后,特斯拉的Autopilot首席執(zhí)行官辭職——2018年4月26日 ……(略)

引用

A.I. Researchers Leave Elon Musk Lab to Begin Robotics Start-UpNew York Times,2017-11-07

A.I. Researchers Are Making More Than $1 Million, Even at a NonprofitNew York Times,2018-04-19 ……

維基百科的問題

每當(dāng)我們?cè)贕oogle上搜索著名人物時(shí),維基百科通常是第一個(gè)彈出來的頁面?,F(xiàn)如今,從查找作業(yè)資料的學(xué)生,到搜集資料的編輯記者,這個(gè)免費(fèi)的數(shù)字百科全書已經(jīng)成為各個(gè)年齡段的首選工具。但近期人們卻發(fā)現(xiàn),維基百科也出現(xiàn)了令人不安的趨勢(shì)。

不少人指出,維基百科正顯示出性別歧視,簡(jiǎn)而言之,即很多著名女性人物沒有她們的專屬頁面。以Mirian Adelson為例,她是一名多才多藝的醫(yī)生,一生發(fā)表過上百篇關(guān)于生理成癮和治療的研究論文,她在拉斯維加斯經(jīng)營(yíng)著一家備受矚目的藥物濫用診所,她也是以色列最大報(bào)紙的出版商、著名慈善家。但維基百科并沒有收錄她的詞條(8月4日更新后新增了)。

擁有相同遭遇的還有MIT MechE的部門的新負(fù)責(zé)人Evelyn Wang,她致力于為沙漠地區(qū)居民研究生成飲用水的設(shè)備。如果說維基百科在收錄女性詞條上更苛刻,但它其實(shí)對(duì)看似被“優(yōu)待”的男性也不完全友好。研究人員統(tǒng)計(jì)了30000名計(jì)算機(jī)科學(xué)家,發(fā)現(xiàn)維基百科只收錄了其中的15%。

換言之,面對(duì)不斷更新的信息,維基百科在時(shí)效性和完備性上仍面對(duì)重大挑戰(zhàn)。

事實(shí)上,除了以上提及的缺漏現(xiàn)象,維基百科在現(xiàn)有詞條維護(hù)上也有些力不從心,以華盛頓大學(xué)校長(zhǎng)Ana Mari Cauce為例。自從特朗普政府宣布啟動(dòng)延遲兒童入境行動(dòng)(DACA)以來,Cauce多次聲明華盛頓大學(xué)會(huì)繼續(xù)向移民學(xué)生提供各項(xiàng)福利,這在美國(guó)產(chǎn)生極大影響,但他的詞條內(nèi)容卻遲遲沒有更新。

維基百科是學(xué)界重要的語料來源之一,但它卻展示出非常嚴(yán)重的滯后性和偏見,可想而知,我們不能指望用它來構(gòu)建合理模型。

Quicksilver如何運(yùn)作

從自然語言處理角度看,用模型自動(dòng)生成維基百科風(fēng)格詞條是可能的。對(duì)于這類問題,現(xiàn)在采取的普遍方法是多本文摘要:給定一組包含有關(guān)實(shí)體信息的參考文檔,生成實(shí)體的摘要。

前人的研究

其實(shí)早在十年前,Biadsy等人就已經(jīng)嘗試過生成類似人物介紹,他們提出的算法是對(duì)源文本中的相關(guān)句子進(jìn)行排序和剪切,然后再拼湊成最終文本。這樣做的優(yōu)點(diǎn)是語句十分連貫,因?yàn)樗鼈兌加扇祟惥帉?。但它的局限也很大,就是機(jī)器只能組合人類寫過的內(nèi)容,無法自己創(chuàng)作。

近年來,研究人員開始由上述提取式生成轉(zhuǎn)向抽象概括,這種技術(shù)使用神經(jīng)語言模型來動(dòng)態(tài)生成文本,缺點(diǎn)是模型為了“連貫性”會(huì)生成不少無意義內(nèi)容。對(duì)此,斯坦福大學(xué)的See等人提出指針生成器網(wǎng)絡(luò),它可以為抽象模型提供一個(gè)信息提取回退的選項(xiàng),有機(jī)結(jié)合了提取式和抽象概括式兩種方法。

為了避免從源文本中引用重復(fù)內(nèi)容,See等人提出的指針生成器網(wǎng)絡(luò)可以通過指向復(fù)制單詞,從固定詞匯表生成單詞,從而糾正提取式摘要的表述

基于上述研究,今年Google AI的Peter Liu團(tuán)隊(duì)在ICLR上展示了一篇論文:Generating WIKIPEDIA by Summarizing Long Sequences。他們先把提取式摘要作為約束輸入文本的第一步,再對(duì)輸出文本進(jìn)行抽樣概括,這樣做形成的文本非常驚艷,它們既保留了人類編寫的流暢性,也出現(xiàn)了大量模型“自創(chuàng)”的表述。

Quicksilver

Quicksilver是美國(guó)創(chuàng)業(yè)公司Primer開發(fā)的一款軟件,它沿用了Google AI的基礎(chǔ)架構(gòu),但目的更加簡(jiǎn)單實(shí)在,就是開發(fā)一個(gè)可用于構(gòu)建和維護(hù)維基百科等知識(shí)庫(kù)的系統(tǒng),而不是將維基百科作為文本摘要算法的學(xué)術(shù)測(cè)試平臺(tái)。除了生成連貫文本,Quicksilver還需要能追蹤數(shù)據(jù)來源,以便最終輸出的任何語句都能指示其引用來源。

簡(jiǎn)單來看,它的基本思路就是通過交叉引用維基百科詞條和從學(xué)術(shù)搜索引擎(文中稱為語義學(xué)者)中抽取的作者列表,來檢測(cè)其中和詞條人物有關(guān)的信息。提取這些信息并進(jìn)行組合,最后用只包含一個(gè)解碼器的抽象概括模塊使輸出文本更連貫。

為了追求時(shí)效性,研究人員基于維基數(shù)據(jù),制作了一個(gè)和seq2seq模型相結(jié)合的知識(shí)庫(kù)。對(duì)于了解科學(xué)家的生平事跡,使用維基數(shù)據(jù)的結(jié)構(gòu)數(shù)據(jù)是一個(gè)關(guān)鍵突破,它既做到了映射新聞文檔,又可以通過添加遠(yuǎn)程監(jiān)督機(jī)制,讓知識(shí)庫(kù)實(shí)現(xiàn)自我更新。

以下是Quicksilver的具體流程:

目前,Quicksilver已經(jīng)在3萬份科學(xué)家數(shù)據(jù)中經(jīng)過訓(xùn)練,并生成了40000余份維基百科風(fēng)格的人物簡(jiǎn)介,其中有多篇已被維基百科收錄。它也重點(diǎn)關(guān)照了女性詞條缺失的現(xiàn)象,在2小時(shí)內(nèi)為70名女科學(xué)家更新了她們的詞條。

小結(jié)

維基百科的受歡迎程度和它對(duì)社會(huì)造成的影響息息相關(guān),學(xué)界呼吁一個(gè)更具代表性的數(shù)據(jù)集,我們也期望一本剔除了不平等思維的百科全書。Quicksilver讓我們看到了用機(jī)器學(xué)習(xí)技術(shù)糾正偏見思維的可能性,這項(xiàng)研究不僅有助于把代表性不足的科學(xué)家群體置于燈光下,它也成了后期ML研究的一個(gè)光輝榜樣。

Quicksilver背后的算法不難理解,但它的設(shè)計(jì)依然非常復(fù)雜。除了學(xué)術(shù)上的啟示,從工業(yè)角度看,這種技術(shù)在中文維基百科和國(guó)內(nèi)其他百科的維護(hù)上都有用武之地,值得進(jìn)行嘗試。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4708

    瀏覽量

    95302
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    48987

    瀏覽量

    249071
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134541

原文標(biāo)題:告別歧視和偏見,用AI自動(dòng)生成維基百科詞條

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    嵌入式和人工智能究竟是什么關(guān)系?

    、連接主義和深度學(xué)習(xí)等不同的階段。目前,人工智能已經(jīng)廣泛應(yīng)用于各種領(lǐng)域,如自然語言處理、計(jì)算機(jī)視覺、智能推薦等。 嵌入式系統(tǒng)和人工智能在許多方面都
    發(fā)表于 11-14 16:39

    人工智能是什么?

    的階段。阻礙前行的因素很多,要攻克的技術(shù)難點(diǎn)也很多,但這些問題在人工智能領(lǐng)域的專家來看,技術(shù)的積累都只是時(shí)間問題,對(duì)人工智能技術(shù)做更進(jìn)一步剖析的話,其實(shí)就是“算法”+“海量數(shù)據(jù)”。更通俗一點(diǎn)就是:在
    發(fā)表于 09-16 15:40

    那個(gè)涉嫌性別歧視被開除的谷歌工程師,到底吐槽了些什么?

    (inclusion),我不否認(rèn)性別歧視(sexism)的存在,并且我反對(duì)刻板印象(stereotype)。如果我們想解決群體比例上的差距(指公司工程師中男女比例與人口中的男女比例的差異),我們需要審視群體分布上的差異
    發(fā)表于 08-15 10:36

    解讀人工智能的未來

    而言,我們能夠?qū)崿F(xiàn)的只是一種狹義的人工智能,它需要由人類精心準(zhǔn)備數(shù)據(jù)然后進(jìn)行人工訓(xùn)練。例如,如果要教會(huì)AI識(shí)別貓的圖片,你需要有一個(gè)龐大的照片數(shù)據(jù)
    發(fā)表于 11-14 10:43

    人工智能醫(yī)生未來或上線,人工智能醫(yī)療市場(chǎng)規(guī)模持續(xù)增長(zhǎng)

    一直到后期的診斷、治療和評(píng)估。   不過,就目前的技術(shù)限制,在人工智能輸入的數(shù)據(jù)和其輸出的答案之間,通常存在著無法洞悉的“隱層”,被稱為“黑箱”?!昂谙洹?b class='flag-5'>存在的后果,就是難以判斷
    發(fā)表于 02-24 09:29

    人工智能:超越炒作

    。對(duì)于人工智能用例在當(dāng)前物聯(lián)網(wǎng)環(huán)境中變?yōu)楝F(xiàn)實(shí),必須滿足三個(gè)條件:非常大的真實(shí)數(shù)據(jù)具有重要處理能力的硬件架構(gòu)和環(huán)境開發(fā)新的強(qiáng)大算法和人工神經(jīng)網(wǎng)絡(luò)(ANN)以充分利用上述內(nèi)容很明顯,后兩
    發(fā)表于 05-29 10:46

    基于人工智能的傳感器數(shù)據(jù)協(xié)同作用

    各種來源的大量數(shù)據(jù),識(shí)別各種模式、提供交互式理解和進(jìn)行智能預(yù)測(cè)。這種創(chuàng)新發(fā)展的一個(gè)例子就是將人工智能應(yīng)用于由傳感器生成的數(shù)據(jù),尤其是通過智能
    發(fā)表于 07-25 06:20

    只要6秒 AI人工智能只要聽聲音就能描繪你的長(zhǎng)相

      你相信嗎?AI人工智慧最近已經(jīng)進(jìn)化到,只要花6秒的時(shí)間,聽到你的聲音除可以分辨出你的性別、年紀(jì)與種族外,甚至可以描繪出你的長(zhǎng)相?! ∵@款由麻省理工學(xué)院(MIT)所打造出來的AI,研究人員用一個(gè)由
    發(fā)表于 07-29 15:49

    MIT創(chuàng)造了一種減少AI偏差的方法 AI性別歧視有救

    在社交媒體的應(yīng)用場(chǎng)景中,人工智能算法模型的偏差導(dǎo)致搜索結(jié)果或用戶體驗(yàn)不佳常常出現(xiàn),甚至可以說是無法規(guī)避,如人們熟知的大數(shù)據(jù)殺熟等??梢灶A(yù)見,當(dāng)AI應(yīng)用到醫(yī)療保健、自動(dòng)駕駛汽車、刑事司法或刑事處理等
    發(fā)表于 11-19 10:52 ?1536次閱讀

    那些潛藏在高大上的學(xué)術(shù)會(huì)議背后的種族性別歧視

    假休息日時(shí),Twitter 上卻迎來了人工智能界的“扛把子”Anima Anandkumar 的連篇炮轟。她在其最新的推文中指出 Yann LeCun 存在性別歧視,Moshe
    的頭像 發(fā)表于 12-27 10:00 ?3695次閱讀

    IBM打造百萬人臉數(shù)據(jù) 意圖減少AI偏見與歧視問題

    科技中立,但人制造出來的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視種族歧視,例如面部偵測(cè)算法在識(shí)別白人時(shí)的準(zhǔn)確率比識(shí)別黑人高許多,男性跟女性類別也存在類似問題,讓軟件識(shí)
    發(fā)表于 02-13 08:47 ?583次閱讀

    人工智能存在種族歧視

    有望借助大家的聲音反抗現(xiàn)有種族格局,大大改變?nèi)蚨鄶?shù)老齡化人口使用技術(shù)的方式。
    發(fā)表于 09-10 16:31 ?1507次閱讀

    人工智能存在性別歧視?

    谷歌人工智能工具用于標(biāo)記圖像中的內(nèi)容,將不再給人們貼性別標(biāo)簽。
    發(fā)表于 02-25 16:35 ?1380次閱讀

    蘋果宣布REJI項(xiàng)目,旨在解決種族主義

    1月14日上午消息,蘋果公司今天宣布“REJI”項(xiàng)目,旨在解決種族主義,幫助消除有色人種面臨的不公正待遇。
    的頭像 發(fā)表于 01-14 11:52 ?2608次閱讀

    AI藝術(shù)創(chuàng)作工具存在種族、性別歧視?

    日本富士通的一支研究團(tuán)隊(duì)利用有向無環(huán)圖模型(DAG)研究AI生成藝術(shù)中的偏見現(xiàn)象。該研究發(fā)現(xiàn),目前的AI模型在藝術(shù)創(chuàng)作時(shí)展現(xiàn)出對(duì)特定流派、創(chuàng)作風(fēng)格、種族、思想運(yùn)動(dòng)等因素的明顯傾向性。 據(jù)分析,這種
    的頭像 發(fā)表于 04-19 14:33 ?2096次閱讀
    AI藝術(shù)創(chuàng)作工具<b class='flag-5'>存在種族</b>、<b class='flag-5'>性別歧視</b>?