直播現場:NVIDIA 拉斯維加斯 CES 記者會

作者 Bob Sherbin

感謝您的線上觀看!總結一下,我們今晚宣布了三件事情:NVIDIA DRIVE PX 2、NVIDIA DriveWorks 軟體與我們的 NVIDIA DRIVENET 深度神經網路。如需更多資訊,請見本日活動總結

7:10 PM – 不到1小時又10分鐘的時間,這場記者會即進入尾聲。有些人還留下來拍照,有些人在閒談,其他人則是前往下一場 CES 展前的活動。

 

Volvo 將在自動駕駛 SUV 車輛上部署 DRIVE PX

7:08 PM – NVIDIA DRIVE PX 2將採用水冷式冷卻方式,另有風扇冷卻方式可供選擇。

這具用於自動駕駛車的超級電腦可放入後車廂中。

黃仁勳先生宣布 Volvo 將率先在車輛上部署 DRIVE PX 2 系統,明年將在 Volvo 汽車的故鄉哥特堡市進行的公測活動裡,會有100輛自動駕駛車上路。

7:03 PM – 黃仁勳先生現在比較採用 16nm 製程的 DRIVE PX 2 與採用 28nm 製程的 TITAN X。DRIVE PX 2 的運算實力是6倍之多。DRIVE PX2 擁有12個 CPU 運算核心、8 teraflops 處理能力和 24 teraflops 的深度處理運算能力,相當於後車廂裡150部 MacBook pros 筆電的運算能力。

黃仁勳先生手拿尺寸不及平板電腦大小的 DRIVE PX 2。PX 2 內載兩具次世代 Tegra 處理器,以及兩顆次世代 Pascal 架構獨立 GPU。

相機的閃光燈閃個不停、快門按個不停,觀眾們頓時鴉雀無聲。

大螢幕(字面上的確是)展演內容

7:01 PM – 將這些技術集中在單一軟體堆疊上。自動駕駛技術的重點之一,就是駕駛人能看到車輛「見到」的內容。

Justin 上台,播放一個巨大的車用資訊娛樂系統畫面。

畫面裡有兩個螢幕,一個顯示車輛行進的畫面,加上數百萬個資料點分析後的結果,塑造出其它車輛、車道的形狀,並且以 3D 立體畫面來顯示。

另一個螢幕則是在地圖上顯示車輛的行進位置。

Justin 為了比較還在更大的螢幕上播放一支影片,內容是從車前看出去的畫面,以及從20呎外顯示混合資料後 3D 立體車輛影像,兩張影像是相符的,不過一張是人眼所見,一張是車輛所見。

6:57 PM – 下一個步驟就是在高精度地圖上進行定位,才能規劃路徑和找出安全的行車路線。GPS 的精度差誤或許是在幾公尺的範圍,但我們要求的精度值是到幾公分的微小差距。

圖內的車輛在評估多種行車路線和安全超車的方式。

這支展演影片的重點顯示一連串的攝影機加上高精度的地圖,能以車身四周的參考物件來定出車輛位置,並且找出最佳行車路線。

6:53 PM – 黃仁勳先生說 Miguel 播放的是動作結構,也就是透過一連串的 2D 攝影機感應器來投射出 3D 立體環境。

加入光達裝置,混合各種資訊產生地圖,顯示車輛如何在空間中移動,以及與四周物件連動的情況。

具備深度學習優點的攝影機可偵測客車、巴士、卡車及其他會移動的物件。

而這些資料都會投影在同一地圖上,顯示我們的車輛和其它呼嘯而過的物件。

介紹 NVIDIA DriveWorks

6:50 PM – 黃仁勳先生說車輛得學習許多事物,每輛巴士都不一樣,校車和客車採用不同的規則,部分卡車是救護車,每種都需要不同的車輛行為特徵。

第一個部分是訓練神經網路的平台,不過這對於系統軟體來說是一大挑戰。NVIDIA DriveWorks 提供執行認知、定位、規劃和視覺化的管線。

黃仁勳先生介紹另一位工程師 Miguel。Miguel 播放一張圖片,圖片內的車輛上有著一排標準車用攝影機,指向車子的前後左右,其它攝影機則是提供同一方向的窄視野內容。車身上的光達裝置每秒掃描四次。我們選擇如此配置攝影機來測試自動駕駛車平台,而我們的合作夥伴可能使用其它的配置方式。

Miguel 接著顯示所有感應器同時執行的畫面,拍攝六個不同的畫面傳入電腦,加上前後光達裝置的測量內容,就像是從空中50呎的地方無死角地描述車身四周的情況。

下一項考驗就是將這些資料混合起來,以 30fps 的頻率來追蹤四具攝影機每具的8,000個資料點。

創新者紛紛採用 DRIVE PX

6:41 PM – 運行全球最高效能 GPU 之一的 TITAN X,NVIDIA DRIVENET 神經網路可達到每秒50 fps 的頻率,我們用它來開發參照神經網路。

以下這些公司傑出的工程單位使用我們的技術

像是奧迪汽車只花了幾小時來訓練神經網路,就會辨識德國的道路號誌,水準足以擊敗每項人工編寫程式碼的電腦視覺技術,察覺道路號誌的能力也較人類更優秀。

Daimler 車廠也達到完美的像素辨識能力。

日本開發自動駕駛計程車的 ZMP 公司也使用這項技術;BMW,還有豐田汽車的合作廠商 Preferred Networks;以及福特汽車也將訓練神經網路的速度加快30倍。

6: 37 PM – Mike 繼續介紹:我們打造出一個完整度這麼高的網路,可以進行比辨識車輛更困難的工作,如今網路能辨識出行人和機車騎士。現在有五種不同的類別,沒有一種是使用人工來編寫程式碼,都是透過深度學習來完成,這可比付薪水給資深工程師來得更便宜,速度又快上許多。

Mike 現在播放一支採用特藝彩色(Technicolor)技術製作成的影片,以綠色標示人體、紫色標示道路、紅色標示車輛,看起來就像是小孩的塗鴉畫。

奧迪汽車(Audi)想要見識我們的能耐,交給我們一組在雪中行進的車輛資料,我們運用深度學習技術,只花了一個晚上就能辨識出人眼看不出的物件。

運用深度學習準備上路

6:30 PM – 我們使用這個平台來開發自己的深度神經網路 NVIDIA DRIVENET,有著9個初始(inception)層、3個卷積(convolutional)層和3700萬個神經元,將資訊通過整個網路會進行400億次運算。

這是進行深度學習訓練最重要的部分之一,需要反覆進行幾個月的時間,而我們已經達到近乎世界級的水準。百度使用 KITTI Dataset 這個業界最廣泛採用的標準創下目前的最高紀錄,我們已經很接近了,不過我們是採用即時運行的方式。

黃仁勳先生介紹帶領開發 NVIDIA 神經網路的研究員 Mike Houston。

Mike 播放一段影片,說明一輛行駛在市區道路上的車輛如何行進和偵測其它車輛,看起來就像是日常通勤的高畫質影片,不過每輛車出現就會迅速出現黃色方框。我們花了一個月的時間,用1.2億個物件來訓練神經網路,要是沒有 GPU 加快訓練速度,得花上好幾年才能完成。

6:25 PM – 黃仁勳先生說如今到處都有結合 NVIDIA 技術的深度學習神經網路 – 且在單一平台上。

我們想要為自動駕駛車打造端對端的深度學習平台,訓練網路稱為 NVIDIA DIGITS,並且透過 NVIDIA DRIVE PX 2 來部署網路。

此舉讓車輛能學習各種路況,並且將資料傳回雲端網路,再更新到所有車輛上。每間車廠都有自己的深度神經網路,我們想要建立一個部署這些的平台。

重複一次。NVIDIA 的三項策略為:

  • 確保 NVIDIA GPU 加快所有 GPU 架構的速度
  • 打造部署深度學習的平台
  • 開發端對端開發系統來訓練和部署神經網路

6:21 PM – 現在有許多神經網路開始採用深度學習技術、運行 NVIDIA GPU,包括 Facebook 的 Big Sur、Google 的 Tensorflow、IBM 的 Watson 及 Microsoft 的 CNTK。柏克萊和紐約大學等知名學術研究機構和多家新創公司,也開始涉足這個領域。

將應用速度加快20到40倍,會帶來截然不同的重大意義。

超凡能力

6:19 PM – 真正的突破性發展出現在2012年,當時開始採用深度學習,放棄人工編寫程式碼,使得 Imagenet 競賽結果的精準程度出現三級跳般的進展。

去年 Microsoft 與 Google 紛紛宣布自家的神經網路打敗人類的辨識能力,而中國搜尋引擎龍頭百度,則是宣布在語音辨識方面擊敗人類。Microsoft 與香港科技大學合作,在 IQ 測試方面擊敗一名大學生。

而現在的挑戰是如何將深度學習用在自動駕駛車上

6:16 PM – 最近出現了解決這項複雜難題的方法,那正是深度學習,這項電腦程式能自行偵測重要特色,透過範例來熟悉各種物件。電腦工程師無需編寫程式碼,只要訓練深度神經網路就能完成這項工作。訓練神經網路需要上兆次的運算能力,過去得花上幾個月的時間,而使用 GPU 可將訓練時間縮短30到40倍,過去要花上一年來完成的工作,現在只要一週就能解決;而用到一個月的工作,如今只消一天就能完成。

深度學習技術的貢獻,就跟網際網路或行動運算一樣顯著。

6:13 PM – 開車這件事本來就不容易,自動駕駛更是難上加難。

想想這個複雜的世界,還有其間的各種排列組合;想想這個世界的難以捉摸之處- 隨意穿越馬路的人、流浪狗、穿梭車陣的自行車騎士,再想想會造成傷害的事物 – 坑洞、偏離車道的車輛,還有其它猶如晴天霹靂般的意外事件。

最大的難題就是感知這些事物的存在,它才是我們要解決的重點。

6:10 PM – 黃仁勳先生說可以把自動駕駛車想成一個迴圈。

車子需要能使用雷達、光達、超音波等感應器來感應四周環境。

還需要過去產生的高精度地圖、定位能力,感受車身四周的路況,集合這些資訊以規劃出安全行車路徑。

這就像是一個無限循環的迴圈,需要盡快完成這些不斷進行的作業。

其實這是一項高難度工作。

可能會帶來革命性的發展

6:08 PM – 自動駕駛車將對社會帶來革命性的變化,NVIDIA 的展望就是落實這件事。

NVIDIA 對於自動駕駛車抱持著兩項展望:

  • 一,車子本身是虛擬共同駕駛人,它會隨時注意路況,駕車技術比我們好。它會時刻注意車身四周的路況,讓車內乘客不會受到傷害,就像是車輛四周有著虛擬力場。
  • 二,車子會自動駕駛,沒有人為操控的部分。

兩項加總起來,所需要的運算能力遠大於其它事物,而要是我們能落實這件事,對於社會將有著無比顯著的貢獻。

6:06 PM – 他現在介紹 NVIDIA 這麼做的原因。

他說自動駕駛車將會對這個社會有著極大貢獻,人類是行車時最不可靠的那一部分。

自動駕駛車也將提升行動力、減少路上的車輛數,進而減少需求停車場的數量,創造出更美好的都會環境。

介紹 NVIDIA DRIVE PX 2

6:04 PM – 黃仁勳先生重述他去年的重點,指出需要提高深度學習的精準程度,但此舉會耗費大量運算能力。

上千名工程師投入心力開發全球首具自動駕駛車使用的人工智慧超級電腦 NVIDIA DRIVE PX 2。

它的表現真是令人刮目相看。12顆 CPU、NVIDIA 的次世代 Pascal 架構 GPU,共同產生出 8 teraflops 的運算能力,相當於150部 Macbook Pros 電腦的運算能力,而它的尺寸只跟一個便當盒差不多大。

我們開始吧

6:02 PM – 好了,來自上天的聲音傳達記者會即將展開,每個座位上都坐滿了人。

黃仁勳先生走上左側智台,穿著有著銀色拉鏈的招牌黑色皮夾克,搭配黑色長褲和鞋子。

他說,歡迎各位的光臨,我們接下來將介紹自動駕駛車,引起台下一片掌聲。

6 PM – 音樂開始變得高昂,代表活動即將展開。台下的嘉賓們現在還一臉神清氣爽的樣子,看來是今天剛從機場過來會場,不過幾天後在他們參加多場記者會、步履艱難地走在拉斯維加斯會展中心又長又硬的走廊上時,神情就不會這麼好看了。

5:52 PM – 要擔任播報這些活動的記者,還真是一件苦差事,很多人風塵僕僕從另一場活動趕過來,晚一點又要趕去另一場汽車相關活動。

這些記者忙著拿到活動資料,又忙著趕往其它活動,不過他們在路上也會找到樂趣的。

5:50 PM – 我們在四季酒店,這裡對召開記者會來說是個不錯的場地,有大理石的階梯,門口還有穿著制服的服務員。

但在記者會活動現場,預計400位來自各大車廠、媒體、產業分析等行業的嘉賓會全都穿著黑色服飾,除了後方有著《銀翼殺手》風格的綠色動態圖案外。

它們顯示 NVIDIA 商標、變成半透明的城市風景圖案,又變成自動駕駛車的車道。

把它想成未來趨勢這股風潮中的一根稻草。

5:45 PM – 在接下來的一天半裡,全球消費者不會一同湧向 CES 2016 廣大的會場。不過真正的行動是從今天開始,而且其實是今晚。

就像是黑色星期五對聖誕佳節購物季,以及第一杯薄荷朱利普雞尾酒對塔基德比賽馬活動的意義,近年來 NVIDIA 的記者會也成為 CES 展非正式的揭幕活動。

NVIDIA 執行長黃仁勳先生為此前來,即將上台展開記者會活動。

我們是從開發遊戲技術起家,但近年來我們將重心放在虛擬實境、深度學習與自動駕駛這三大領域上。

我們今晚會將焦點放在後面兩項主題上。

週一下午6點(太平洋地區時間),NVIDIA 執行長黃仁勳先生將於拉斯維加斯展開 CES 2016記者會。

我們不會破壞 CES 展要給世人的任何驚喜內容,不過請持續關注我們的最新動態,會透過部落格直播活動內容。請點擊瀏覽器的更新鈕以取得最新內容。