11:19 – 我們開發出一項模擬器,讓機器人能在平行環境裡先學習,然後再放入實體環境。
黃仁勳吐了一小口氣,說:「我的演講到此結束。」接著他重複今天演講裡的重點。他介紹了人工智慧運算新時代的興起、Volta 處理器和 Volta 架構人工智慧超級電腦、TensorRT 和 Tensor Core、NVIDIA GPU Cloud 平台,還有 Xavier DLA 開放源碼 DLA 深度學習加速器,並且宣佈豐田(Toyota)汽車成為 NVIDIA 新的合作夥伴,還有 Isaac 機器人模擬器。
「以上就是我今天要分享給各位的所有內容。」黃仁勳笑著說,吐出一口氣,在講了兩小時的重大消息後轉身離開舞台。
11:15 – 黃仁勳未停下腳步,繼續介紹機器人。
機器人是一項高難度的成就,它得感應四周環境、與環境互動,還得做出計畫。自動駕駛車的一個明確目標就是偵測碰撞,而在機器人身上,偵測碰撞是必要功能 – 你的目標是以正確方式進行碰撞 – 一個動態物體跟另一個物體相接觸時,會出現什麼情況。
黃仁勳展示 Ada 機器人如何學習將一個橘色的塑膠冰球射進小網子裡。不過要是教機器人如何執行手術,又會是什麼樣子呢?
我們需要建立一個不一樣的宇宙,需要遵守你選擇的物理和重力規則,畫面要夠逼真寫實,還能在這個環境裡自主學習。與實體世界間的差距就是它得以飛快速度運行。
我們以物理界的先驅艾薩克.牛頓(Isaac Newton)及科幻作家以撒.艾西莫夫(Isaac Asimov)來命名,開發出 Isaac 這個新模擬器。它與 OpenAI Gym 相互連結。
11:07 – 黃仁勳開始介紹 Deep Learning Accelerator(DLA)。
你可以建立客製化的 ASIC 及將效率提升三分之一。以 Xavier 為例,我們使用 CUDA 和 DLA,跳脫 CPU、GPU,創造出一個處理器,讓你能結合通用目的架構和領域特定加速器,優點是我們個備可編程、功能完整、超省電,且能在整個自動駕駛車軟體堆疊上運行的架構。我們非常熟悉這整個管線,且個備完整的軟體堆疊。
黃仁勳說要把這些全放在一起難度極高,我們何不加快採用速度,將深度學習普及到數兆台日後將使用深度學習的裝置上。
因此我們開放了 Xavier DLA 的源碼,世上最棒的工程師們都在這方面投注心力。我們要帶著這個有些人稱為 TPU 的東西,開放供大家使用。最早將於七月開放,完整內容則將於九月開放。「我們的目標是擴大數量。」黃仁勳說。
11:03 – 黃仁勳說他要宣布一件大事…
他滔滔不絕地講述將 NVIDIA 的技術,用在自動駕駛汽車、卡車和自動飛行飛行器的公司。
「豐田(Toyota)的自動駕駛車選擇 NVIDIA 的技術,正如各位知道的,豐田是世上最大的企業之一,在許多方面都有傳奇性的地位…許多現代的管理制度源自於這家公司。豐田要跟我們合作,我們的兩支工程團隊正在努力開發他們的自動駕駛車,預計幾年內就會上路。」
「他們未來生產的車,就是用這個架構。」黃仁勳說。
他說豐田會使用 NVIDIA 的 Xavier 技術,擁有 30 Tflops 的運算能力,耗電量只有30瓦。
10:59 – 接下來我們要介紹在終端的人工智慧。
他很快繼續進入交通方面的主題,提到人工智慧改寫了交通運輸方面的發展方向。我們得想出辦法增加卡車的載貨量和自動化,才能追上亞馬遜效應(Amazon Effect)的腳步。光是達美樂(Domino’s)每天就要運送百萬片披薩。
黃仁勳說少了停放的車子,環境也會變得更好。目前的八億個停車位,無法滿足三倍數量車子的需求。
黃仁勳說所以我們開發出能提供完整自動駕駛能力的 NVIDIA Drive。現在有200多名開發者使用 DRIVE PX,單單上一季人數就成長了 50%。
他展示如何將 NVIDIA Drive 用於繪製地圖、當成副駕駛和守護天使(就算車輛未在行駛中,也應時時注意四周路況)。
他為繪製地圖和駕駛活動播放了一段影片,其中顯示一部車如何製作 HD 地圖,並且在其中進行定位。這顯示了車輛如何掃描、偵測路況,建立 HD 地圖及定位。
黃仁勳接著展示 NVIDIA 的 Janine 扮演試駕者,其實她是一位活動規畫人員。
黃仁勳接著展示守護天使這一塊的內容,NVIDIA Drive 會告訴駕駛人別再前進,因為有一部她沒看到的車正穿越十字路口。
10:55 – NVIDIA GPU Cloud Platform 將於七月推出 beta 版。「要是你等不及要衝向雲端,可以用這一招。」黃仁勳說。
10:52 – 下一個主題:NVIDIA Deep Learning Stack。
我們決定在一個大堆疊裡放入所知道的各種架構和軟體版本,然後為它建立一個雲端註冊制度。如果你有 Titan X,就可以到網站上輸入地址和下載這個包好的貨櫃式堆疊。無需任何設定,只要開始使用平台,就會開始發現只需按下一個按鍵,便可建立一個執行個體。下載這個容器(container),就能把你的工作丟到雲端。這是首個混合式深度學習雲端平台。
NVIDIA 工程師 Phil 用它來對觀眾們介紹。他啟動 NVIDIA GPU Cloud(NGC),展示建立一項深度學習工作所需的三個步驟。一是選擇環境(雲端、你自己的 DGX-1、你自己的 DGX 工作站,還是配備 Titan 的桌機)。若選擇雲端的話,就有一系列的選擇。接著他在滑鼠上按一下以選擇資料集。最後選擇要使用的容器式架構,可以選擇 Pytorch、Caffe2 等(每個月都會更新),接著就準備好了,此時會出現一個清單,上面列出已執行和正在執行的工作。
請更新瀏覽器並觀看以下的活動直播內容,以取得最新的更新內容。
10:46 – 黃仁勳現在介紹 V100 用於超大規模運算中心擴展性的情況。它的小巧體積約莫是大型 CD 盒的尺寸,跟 Intel Skylake 相比,將推論速度提升15-25倍,耗電量為150瓦。他開玩笑地說這個尺寸是 FHHL(全高度、一半長度)。
黃仁勳現在介紹用於加速器的場合,展示一排搭載 1K CPU 的500個伺服器(一大片發出嗡嗡聲的牆),可支援每秒 300K 次的推論作業。要是我們在每個節點加入這個,成本是 3K 美元,再加上互連技術、電力和冷卻,會用到150萬美元和 250K 瓦的電力,還不含電力、冷卻或互連技術的費用。
這相當於 V100 的33個節點,減少了15倍。
我們被問到關於 FPGA 的事時,決定:何不讓 Volta 成為最佳的推論機器。
10:41 – 現在主題換成推論,這是黃仁勳稍早提醒過我們的部分。
黃仁勳宣布用於 TensorFlow 的 TensorRT(RT 指 Run Time),可將訓練速度加快12倍,將推論速度加快6倍(黃仁勳說「tensor」(張量)就是內有向量的數學物體)。
我們在這方面能做的,就是將必須以帶有偏見的方式來執行的數學加入單一區塊內。不同的數學區塊使用相同的輸入內容時,我們也能藉由圖形分析來加以辨識。
黃仁勳在圖表上說明於使用 ResNet-50 進行推論的處理量和延遲性表現,測量單位為每秒處理的影像數量。P100 每秒可處理600張圖片,Intel 的 Broadwell CPU 每秒可處理100張,K80 每秒可處理200張,Volta 每秒處理量則超過5000張。
「Volta 是一項突破性的成就,在訓練和推論方面有著極佳的表現。Volta 與 TensorRT 最適合用於推論。」黃仁勳說。
10:36 – Tesla V100 搭配 HGX-1 還有其它用途,尤其是用於 GPU 雲端運算。這是打算用於公共雲端,無論是針對深度學習、圖形、CUDA 運算。
現在與黃仁勳一同站在台上的是沒去 Microsoft BUILD 大會,而是選擇來此的 Microsoft Azure 企業部門副總裁 Jason Zander。Microsoft 在 DL 方面有著極為出色的表現,尤其是在自然語言處理、翻譯和 ResNet 上。黃仁勳詢問他關於 Cognitive Toolkit 的事。
Zander 說我們想將人工智慧用在各平台上,要用戶能享受到它的好處。我們與人工智慧為伍近20個年頭,就算我不懂案子內容,也能即時用中文跟某人交談。黃仁勳問他關於能辨識和增強 3D 影像的 Hololens 的事。有了它,就能在 VR 裡跟來自另一個國家的人相遇,就算不是同一種語言,也能彼此交談和理解內容。
Zander 說:「我們的雲端服務使用第二代 GPU,剛宣布使用 P40 和 P100,不過我們真的對 Volta 青睞有加。我的工作就是確保人們使用 Azure Cloud,人們不想等待,想要能立即到手的東西。我們要資料科學家和開發者花多點心力在模型上,少費點心在資料管道上。」
10:28 – 現在黃仁勳宣布搭載八個 Telsa v100 的 NVIDIA DGX-1。在投影片上說它是「人工智慧研究不可或缺的工個」。過去要花費一週時間完成的工作,如今只要一轉眼就能完成。它取代了400個伺服器,提供 960 tensor TFLOPS。第三季將出貨,售價為14.9萬美元。他還提到如果各位現在採購 Pascal 架構的 DGX-1,以後可以免費升級到 Volta。
還有一個小版本的 DGX-1,即 DGX 工作站,可以把它想成個人尺寸的 DGX-1。它採用水冷裝置,運行時極為安靜,我們每名深度學習工程師都有一部。
DGX 工作站搭載四個 Tesla V100,售價為6.9萬美元,現在訂購的話第三季便可出貨。「快下訂吧」他說。
10:24 – 黃仁勳現在宣布為 Volta 推出的新的框架版本。
像是使用 Caff2 來訓練卷積神經網路,在八個 K80 上要超過40小時,在八個 Pascal 上要20小時,在八個 Volta 上只要5小時。
同樣在飛快成長的 MxNet 上使用 LSTM 時間序列神經網路,只要幾小時就能完成訓練 MXnET,使用 Kepler 的話得用上一天半的時間。
黃仁勳介紹首位嘉賓是 Amazon Web Services 深度學習與人工智慧部門總經理 Matt Wood。他說 Amazon 致力於研究人工智慧已有近20年之久,協助訂定 Echo、Alexa 及 Amazon Go 等新的體驗。早期用途包括應用在搜尋和發現功能上。Matt 說 AWS 的首個商業案例是將原本只有極少數人能用到的功能,交給大多數人使用。我們正在做那件事,忙於為 Volta 優化 MXNet。我們期望從它發表後,就能在雲端用到 Volta。
黃仁勳詢問 Alexa 遇過最有趣的問題是什麼,又說這至少得符合 PG 分級制度。Matt 笑說是讓人們快速取得服務的直接人際關係。
黃仁勳詢問如何得知客戶要求在雲端使用 GPU,Matt 回答這是來自於回覆客戶需求之故。我們最近的執行個體增長速度,如「野火燎原」般迅速。
10:15 – 在 TITAN X 上要花幾分鐘處理的作業,在 Volta 上只要幾秒鐘,這需要在極短時間內學習藝術、風格、著色等內容。
10:14 – 接下來:將深度學習用於風格轉換。
黃仁勳介紹如何將深度學習用於轉換攝影風格 – 從一張照片學習風格,再套用到另一張照片上。NVIDIA 的深度學習科學家 Julie,展示一張有著美麗紅紫色夕陽的碼頭照片,也拿出第二張有著夢幻蔚藍加勒比海沙灘,一個沙岬推向水平線的照片。在十秒鐘左右的時間裡,第一張照片的風格便套用到第二張照片上。
10:11 – 現在介紹新的主題。
黃仁勳談到多年前發表的 Kepler,現正在橡樹嶺國家實驗室裡美國速度最快的 Titan 超級電腦上服役。自那時之後,GPU 效能增長速度一年達7-8倍,而 CPU 的增長速度僅 50%。
他提到 NVIDIA 擁有許多計算科學家,其中一名談論宇宙未來40億年間的樣貌變化。他追蹤仙女座緊密通過銀河,星體開始紛紛脫落。在這個實況模擬畫面裡,可以看到銀河系呈波狀碰撞的情況。53億年間所有星系會化零為整,飛離宇宙。
黃仁勳稱這是銀河系逐愛。這還要很久以後才會發生,仍是相當讓人難以接受的畫面。
請更新瀏覽器並觀看以下的活動直播內容,以取得最新的更新內容。
10:06 – 它擁有 16MB 來自三星的快取記憶體,達到 900 MB 的記憶體容量,新的 NVLink 互連技術速度是最高速 PCI Express 互連技術的10倍。
新的 Tensor Core 採用 4×4 矩陣陣列,為深度學習進行徹底優化。我們覺得 Pascal 的速度還不夠快,它發表的時間比 Pascal 晚了一年,張量運行速度卻是 Pascal 的12倍,推論能力也是 Pascal 的6倍。
他接著使用 Volta 進行演示。這個處理器雖是為人工智慧而生,也能用於處理圖形,因此開始展示 Square Enix 的日本電腦動畫科幻動作電影《Final Fantasy XV:王者之劍》。
我們可以透過極為逼真的畫面,見到身處 Eos 世界裡的主角之一 Nyx。黃仁勳稱讚主角身上的黑色皮夾克很好看,是高手才會穿上身的衣服。
9:59 – 黃仁勳現在介紹模型複雜度呈現爆炸性發展的問題。
Microsoft 在2015年發表的 ResNet,6000萬個參數需要 7 ExaFLOPS 的運算能力;百度在2016年發表的 Deep Speech 2 模型,3億個參數需要 20 ExaFLOPs 的運算能力。今年 Google NMT 有87億個參數,需要 105 ExaFLOPS 的運算能力,這是相當極致的高效能運算問題。
黃仁勳說現在要將電腦運算能力提升到新的水準,介紹 Tesla Volta V100,現場響起熱烈掌聲。
Tesla Volta V100 使用 TSMC 的 12nm 鰭式場效電晶體(FinFET)製程,徹底發揮光刻製程的能力。新的 Tensor Core 處理器擁有 5,120 個 CUDA 核心,提供 120 TeraFLOPS 的運算能力。黃仁勳說這也是製造上的不凡成就。
黃仁勳說背後投入了30億美元的研發費用。
9:55 – 在下一張投影片裡介紹 SAP 的新產品「Brand Impact」。廣告主每年花費600億美元來宣傳自家品牌,卻不明白此舉的成效如何。
SAP 這套在 NVIDIA GPU 上運行的產品,讓你能即時掌握影片動態場景內商標的曝光程度,會計算曝光時間長度、場景內曝光的商標大小,還有它提供的品牌價值。
9:52 – 黃仁勳現在介紹人工智慧的普及化,指出目前在史丹佛最熱門的課是 CS229 機器學習介紹,許多主修課程都有上這堂課,大家都想有能力用自己的資料去教電腦自動執行工作。
黃仁勳說 NVIDIA 的策略是打造最個生產力的深度學習平台。我們已經開發出 NVDIA Deep Learning SDK,與各大人工智慧架構合作 – Caffe2、MXNet Pytorch、TensorFlow 及 Theano,還跟 Cisco、Dell、HPE、IBM、Lenovo 這些主要 OEM 業者配合,更沒錯過與每個雲端服務業者合作,提供 GPU 給他們使用。
我們明白這項革命有多麼重要,腳步並未就此打住,NVIDIA 研究團隊推動人工智慧的發展,應用研究單位則是致力於其它領域。我們有專屬團隊與 ISPs 及醫療等垂直產業進行合作,還有為新創公司成立 NVIDIA Inception 計畫,目前有1,300間合作的人工智慧新創公司,提供各項建議、技術、行銷,有時候還提供資金。其實 NVIDIA 等一下就要頒發150萬美元的獎金給這1300間公司裡的六個佼佼者。
有一家特別酷的公司 MapD,率先在 GPU 上打造一個資料庫引擎,剛開放 MapD 的源碼,讓各位能即時取得和查詢記憶體裡的龐大資料庫。
請更新瀏覽器並觀看以下的活動直播內容,以取得最新的更新內容。
9:44 – 黃仁勳現在播放標題為針對光線追蹤的深度學習「Deep Learning for Ray Tracing」的投影片,介紹如何將深度學習用在追蹤模擬場景光子這種需要極大量運算能力的工作上,讓我們能使用人工智慧來填補資訊。
他顯示兩輛模擬出的 Mercedes SLK 350,一輛不使用深度學習進行渲染,花了一點時間以完整解析度製作出有著逼真細節的畫面,另一輛使用深度學習,製作的速度就快多了。以深度學習為基礎的自動編碼器處理速度飛快,只要幾秒鐘就能渲染出有著樹木、雲朵及其它物體倒影的完整大型場景。
9:41 – 現代人工智慧大爆炸讓電腦分層學習影像特徵、將鼻眼耳變成一張臉孔,這項功能不僅強大,還有多元的應用方式 – 它能認得我,還能在各種環境裡、穿著不同衣服,還有半遮臉的情況下認得我。
不是科學家,而是 FDA 首度答應為了醫學分析之故,使用資料來訓練深度學習神經網路。不凡的語音辨識能力登場,而能做到加字幕這件事。
強化學習領域穩定發展,提出多項突破性成就,像是打敗全球棋聖的 AlphaGo。
我們現在有了非監督式學習,可以填補遺失的資料;近期則是按照 Ian Goodfellow 的作法出現生成對抗網路,兩個網路來回相互訓練,如此一來便可生成語音、自然語言翻譯,還有學習將一種語言翻譯成另一種語言,再套用到第三種語言的移轉學習。
深度學習大爆炸奠定開創了人工智慧時代,電腦會自動生成程式,會為了自動化而進行自動化。
9:35 – 冒出頭的第一個趨勢便是 GPU 運算的興起,接著是我們可以稱為第二個運算時代,也就是機器學習時代。脫胎自人工智慧的機器學習改變了許多消費性服務項目,能預料你的需求。
電腦科學家則是用它來指定各指令,現在軟體能寫出軟體,演算法能寫出演算法。
深度學習是瑞士、加拿大、美國等地各研究實驗室的心血結晶。過去任職於史丹佛大學的李飛飛表示「完成深度學習方法、海量資料、使用 GPU」這三個條件,綜合起來成就出深度學習大爆炸的局面。
9:31 – OK,在介紹完背景後,黃仁勳開始進行第一個演示內容。
內容是關於 Holodeck,他邀請來自瑞典的第一位嘉賓 Christian Koenigsegg,以穿著略帶太空/時間旅人感裝束的四個化身之一的姿態,在白色背景的襯托下登場。
他們看著 Christian 公司使用碳纖維打造而成的無排檔混合動力新車,售價190萬美元、個備1500匹馬力的引擎、極速時速為250英里。
這個別緻的車款超級吸睛,車身採用橘琥珀色,看起來像是橘色的芬達汽水加入 Dom Perignon 香檳。
那些化身現在坐進車裡,其中一個手握方向盤。整個場景是以維妙維肖的 3D VR 製成。黃仁勳請大家看看這輛車的所有部分,數千個零件可以展開再快速重組。
9:23 – 黃仁勳拿出一張介紹 GPU 運算興起的圖表。
- GTC 與會者人數五年內成長3倍,達7,000人
- 同一時間 GPU 開發者人數成長11倍,超過50萬人
- 去年下載 CUDA 驅動程式和 SDK 的數量超過100萬
GTC 的與會者也反映出這件事,全球頂尖15間科技公司、十大車廠皆出席,還有80間人工智慧新創公司和20間 VR 新創公司。
他說 GTC 是發明創造未來的地方。
9:19 – 黃仁勳展示一張有著藍色線條的圖表,顯示處理器效能增長的情況,一年增加了 50%,不過目前已開始出現衰退之姿。
我們發現在藝術家、科學家、工程師,也就是我們這個時代的愛因斯坦們,對於應用程式和演算法裡有著龐大的工作量,他們使用的軟體內有平行處理能力,因此我們創造出一項領域專屬的加速器來搭配 CPU。
第二件事是我們創造一個稱為 CUDA 的平台,十年前就為了運算加以擴充,它是我們投入無比心力的運算架構,最後讓大家都受惠,必須要讓所有人都能拿到它。得思考通過一項中介軟體來貫穿上下,而 GPU 加速運算真正特別之處,是它盡了很大的努力將為了 CPU 開發的應用程式搬到這個新的平台上。
我們奉獻自己的精力,組了一個隊,專門負責解決每一層運算可能遇到的問題,以找出沒有效率的地方,以避免浪費。
這一類從上到下和從下到上的作法,產生出顯著結果,有人說我們的進展是摩爾定律的二次方。
9:15 – 在過去30年間,我們受益於一項強大的影響力。摩爾定律讓我們年復一年推動微處理器架構的發展,而 Dennard scaling 定律則是我們只要能降低電壓,就能放入更多電晶體 – 更多電晶體和更省電的表現則是將微處理器的效能提升百萬倍之多。社會裡沒有其它東西有如此這般的進展,然而物理定律也趕上我們了,我們現在走到兩條路的盡頭。
這正是我們存在的理由:找出後摩爾定律的新生活。
9:10 – 重大宣告:發出聲音的那個她,也就是「I, AI」,也是這支影片配樂的作曲人。
觀眾們發出熱烈的反應。
預告:今天稍晚我們會在部落格上介紹影片配樂的相關資訊。
這個所謂的「神之聲」響起,介紹黃仁勳,他身後便是這場演講的主題「Powering the AI Revolution」(推動人工智慧革命)。
黃仁勳仍是一身穿著招牌黑色勁裝 – 眼熟的黑色皮夾克、黑色長褲、襯衫和鞋子,鞋底邊緣有著一圈白。
他說我們今天有很多關於物理和數學的法則,還有多位來賓要介紹給大家。
9:07 – 室內燈光開始暗下,音樂變成更自由、更靈魂的節奏。
影片開始播放。這支影片跟過去不一樣,改由女聲進行主持。在使用蒙太奇畫面組接手法播放科學研究進展的場景後,她說著「I am a…」
「Visionary」先說出這個字 – 指探索遙遠星系的成就。
「Healer」,接著又說出這個字,帶著從一滴血就能辨識出疾病的能力。
「Protector」,保護農作物和海洋,再來是「Helper」,協助身心障礙者。
人群開始獲得各種訊息。顯而易見的是,她是人工智慧,以第一人稱的方式介紹自己,交響樂團演奏的配樂十分撼動心弦。
她又說出「Creator」、「Teacher」及「Learner」這幾個字。
8:58 – NVIDIA 果然是做繪圖卡起家的,在開場影片上放了不少心力。在 GTC 還有 CES 開幕主題演講相當好看的影片,在聲音悅耳的 Peter Coyote 主持帶動下,對於未來的描述十分激勵人心。
不過今年有些許不同,請別轉台…
8:57 – 這個演講廳裡很快就擠滿了人。喇叭播放著輕柔的 R&B 音樂,螢幕才是重點,那是一面差一點就能算是 5K 畫質的大尺寸螢幕,我昨天看到有人在測試它,色彩超豐富又飽和,深色部分就像是坦丁筆下描繪的場景。
螢幕上播放著一連串細圓齒狀、有著飽滿綠色的三角形,呈現波浪狀起伏和重組變形。
8:53 – 來參加黃仁勳主題演講活動的人,都有差不多的性情。從一個指標就能看出來- 今年的 GTC 有600場講座,其中六成都跟人工智慧有關。
前幾天展場裡有許多活動,VR 展裡有十家虛擬實境業者在搶生意,今天晚一點還有 Inception 頒獎典禮,六家公司將獲得總獎金150萬美元,由高盛、富達、軟銀等公司組成的評審團決定最後的得主。會場裡還有一個隔音玻璃箱,有人誤會它是真人大小的水族箱,我們要在這裡邀請多位大咖來賓,錄製 NVIDIA 的 AI Podcast 節目。
8:51 – 或許有人可以想起多年前的 GTC,像是八年前的第一屆活動。San Jose Fairmont Hotel 的二樓聚集了上千名參加者,從這裡排到街上,可以把他們都塞入總統套房。
然而活動人數每年增長近三成,今天的有活動就有超過七千人參加。
活動的本質也有出現變化。
我習慣把大部分的注意力放在那些看起來很專業的圖形上。我們曾邀請過 LucasFilm 的技術長,介紹如何使用 CG 技術來製作出極為逼真的火焰,那一招真是太酷了。不過近年來,主題演講的內容大多集中在人工智慧、深度學習和 IBM 的 Watson 超級電腦這類工具上。
8:50 – 執行長黃仁勳的主題演講應該在10到15分鐘後就要開始,我們今天會在部落格上以文字實況轉播。
感謝加入我們,活動馬上就要開始。