日韩色综合-日韩色中色-日韩色在线-日韩色哟哟-国产ts在线视频-国产suv精品一区二区69

手機APP下載

您現在的位置: 首頁 > 英語聽力 > 英語演講 > TED演講MP3+字幕 > TED演講之科技篇 > 正文

TED演講(視頻+MP3+雙語字幕):如何賦予AI力量而不是被它壓倒(6)

來源:可可英語 編輯:max ?  可可英語APP下載 |  可可官方微信:ikekenet
  


掃描二維碼進行跟讀打分訓練

One is that we should avoid an arms race and lethal autonomous weapons.

第一,我們需要避免軍備競賽,以及致命的自動化武器出現。
The idea here is that any science can be used for new ways of helping people or new ways of harming people.
其中的想法是,任何科學都可以用新的方式來幫助人們,同樣也可以以新的方式對我們造成傷害。
For example, biology and chemistry are much more likely to be used for new medicines or new cures than for new ways of killing people,
例如,生物和化學更可能被用來制造新的醫藥用品,而非帶來新的殺人方法,
because biologists and chemists pushed hard -- and successfully -- for bans on biological and chemical weapons.
因為生物學家和化學家很努力,也很成功地,在推動禁止生化武器的出現。
And in the same spirit, most AI researchers want to stigmatize and ban lethal autonomous weapons.
基于同樣的精神,大部分的人工智能研究者也在試圖指責和禁止致命的自動化武器。
Another Asilomar AI principle is that we should mitigate AI-fueled income inequality.
另一條阿西洛瑪人工智能會議的原則是,我們應該要減輕由人工智能引起的收入不平等。
I think that if we can grow the economic pie dramatically with AI
我認為,我們能夠大幅度利用人工智能發展出一塊經濟蛋糕,
and we still can't figure out how to divide this pie so that everyone is better off, then shame on us.
但卻沒能相處如何來分配它才能讓所有人受益,那可太丟人了。
Alright, now raise your hand if your computer has ever crashed.
那么問一個問題,如果你的電腦有死機過的,請舉手。

如何賦予AI力量而不是被它壓倒

Wow, that's a lot of hands. Well, then you'll appreciate this principle that we should invest much more in AI safety research

哇,好多人舉手。那么你們就會感謝這條準則,我們應該要投入更多以確保對人工智能安全性的研究,
because as we put AI in charge of even more decisions and infrastructure,
因為我們讓人工智能在主導更多決策以及基礎設施時,
we need to figure out how to transform today's buggy and hackable computers into robust AI systems that we can really trust,
我們要了解如何將會出現程序錯誤以及有漏洞的電腦,轉化為可靠的人工智能,
because otherwise, all this awesome new technology can malfunction and harm us, or get hacked and be turned against us.
否則的話,這些了不起的新技術就會出現故障,反而傷害到我們,或被黑入以后轉而對抗我們。
And this AI safety work has to include work on AI value alignment,
這項人工智能安全性的工作必須包含對人工智能價值觀的校準,
because the real threat from AGI isn't malice, like in silly Hollywood movies, but competence
因為AGI會帶來的威脅通常并非出于惡意,就像是愚蠢的好萊塢電影中表現的那樣,而是源于能力,
AGI accomplishing goals that just aren't aligned with ours.
AGI想完成的目標與我們的目標背道而馳。
For example, when we humans drove the West African black rhino extinct,
例如,當我們人類促使了西非的黑犀牛滅絕時,
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
并不是因為我們是邪惡且痛恨犀牛的家伙,對吧?
We did it because we were smarter than them and our goals weren't aligned with theirs.
我們能夠做到只是因為我們比它們聰明,而我們的目標和它們的目標相違背。
But AGI is by definition smarter than us,
但是AGI在定義上就比我們聰明,
so to make sure that we don't put ourselves in the position of those rhinos if we create AGI,
所以必須確保我們別讓自己落到了黑犀牛的境遇,如果我們發明AGI,
we need to figure out how to make machines understand our goals, adopt our goals and retain our goals.
首先就要解決如何讓機器明白我們的目標,選擇采用我們的目標,并一直跟隨我們的目標。

重點單詞   查看全部解釋    
threat [θret]

想一想再看

n. 威脅,兇兆
vt. 威脅, 恐嚇

 
lethal ['li:θəl]

想一想再看

adj. 致命的,毀滅性的,有效的
n. 基因

聯想記憶
retain [ri'tein]

想一想再看

vt. 保持,保留; 記住

聯想記憶
adopt [ə'dɔpt]

想一想再看

v. 采用,收養,接受

聯想記憶
avoid [ə'vɔid]

想一想再看

vt. 避免,逃避

聯想記憶
competence ['kɔmpitəns]

想一想再看

n. 能力,管轄權,技能

聯想記憶
definition [.defi'niʃən]

想一想再看

n. 定義,闡釋,清晰度

聯想記憶
principle ['prinsəpl]

想一想再看

n. 原則,原理,主義,信念

 
mitigate ['miti.geit]

想一想再看

vt. 鎮靜,緩和,減輕

聯想記憶
understand [.ʌndə'stænd]

想一想再看

vt. 理解,懂,聽說,獲悉,將 ... 理解為,認為<

 
?
發布評論我來說2句

    最新文章

    可可英語官方微信(微信號:ikekenet)

    每天向大家推送短小精悍的英語學習資料.

    添加方式1.掃描上方可可官方微信二維碼。
    添加方式2.搜索微信號ikekenet添加即可。
    主站蜘蛛池模板: 电影潘金莲| deauxma| free teen| 太原教育电视台| 掐脖子的视频| 热爱 电影| 抓特务| 碧海晴天| 刘德华神雕侠侣| 不潮不花钱歌词| 激情小视频在线| 黑手党电影| 情动电影| 真实游戏完整版高清观看| 孙东杓| 老虎斑鱼图片| 电影善良的妻子| 大奉打更人电视剧免费在线观看 | 我的学生妈妈| 乱世三人行| 佐拉| 柏欣彤12点以后跳的广场舞| 双缝干涉实验条纹间距公式| 不扣纽的女孩| 欧美黑人巨大精品videos| 爱欲告白| 直播一级片| 电影白上之黑| 我是特种兵免费观看完整版 | 贵妃还乡| 黎明电影| 抖音电脑直播| 路易斯·帕特里奇| 战狼7| 朱砂手串的功效与作用佩戴禁忌| 命运航班| 实用咒语大全| 好茶叶排名前十名| 芭芭拉·布薛特| 诡娃| 黄瀞怡|