同時支援6GHz以下頻段與毫米波 Sony揭曉開發中旗艦手機Xperia PRO
2020-02-24
訪談/Sony定調全新旗艦手機的Xperia 5,究竟是否歸類「Compact」定位?
2019-09-07
Sony與騰訊達成和解!被指抄襲的《荒野起源》、正式雙方簽署保密協議
2025-12-19
Google宣布,旗下Google.org與Google Quantum AI將與XPRIZE基金會、GESDA (Geneva Science and Diplomacy Anticipator)研究機構攜手合作,將推動名為XPRIZE Quantum Applications的競賽活動,預計提供500萬美元獎金激勵研究人員開發符合真實世界所需的量子解決方案。 此競賽將為期3年,期望以此推動更多可在真實世界落實使用的量子解決方案,而非僅針對研究環境設計,或是僅用於解決抽象數學計算。 Google在此之前便已經提倡開發能實際解決真實問題的量子解決方案,因此投資XPRIZE Quantum Applications競賽活動,主要也是希望能協助推動更多可落實在真實世界的量子解決案推出。 目前此項競賽已經正式啟用,並且啟用報名網頁,將由跨領域專家組成顧問、審查人員,並且將依照創新演算法、全新應用模式,以及提升效能等方面進行評選。而主辦單位更列舉精準預測候選藥物及人體蛋白質反應結果,或是改善為分方程式模型的電容及電感參數,藉此建立更有效的電網負載運作模型等。 而參加競賽隊伍必須完整描述其專案計畫解決問題,以及其演算方式必須在量子電腦上花費多少時間完成計算。另外,各個隊伍必須說明執行其提出演算法所需要使用硬體規格,同時必須證明相比傳統電腦更快、更準確,另外也必須說明實際部署後的預計成效。 主辦單位預計選出20個隊伍進入準決賽,並且能各獲得5萬美元獎金,至於首3名獲獎隊伍將能共享300萬美元獎金,後續獲獎隊伍則可共享100萬美元獎金。
Dell全球技術長John Roese在近期《麻省理工科技評論文章》 (MIT Technology Review)發表對於2023年的新興技術趨勢預測中,分別點出企業應該認真思考如何用雲、定義自有零信任基礎,並且盡早佈署量子運算優勢,以及建構可抵禦量子運算攻擊的防護安全措施。 John Roese表示,雖然許多企業都已經上雲,或是積極準備上雲,但其實首先應該要先了解上雲的必要性與成本開銷,並且檢視實際工作流程與相關負載,以及將數據放上雲端的技術可行性,並且從短期與長期佈署檢視成本狀況,藉此確認是否需要全面上雲,或是針對特定業務項目與雲端運算結合。 而對於目前市場推崇的零信任架構,John Roese認為不同企業、組織應該建立各自合適的管理政策,以及身分權限劃分與威脅管理方式,而更重要的是先建立一致的驗證控制標準,藉此在多雲環境建立相同的安全防護基礎,而不會因為管理權限差異化導致出現安全漏洞。 至於針對目前市場開始討論的量子運算,John Roese表示雖然看起來還很遙遠,但是從近年IBM、Intel、Google等業者加速競爭量子霸權趨勢,加上越來越多業者如NVIDIA、AWS等都開始藉由雲端運算結合現有CPU、GPU、AI加速器等方式,藉由打造模擬量子運算,讓各類運算需求能以更高執行效率完成,更意味量子運算應用型態的發展腳步越來越快,因此企業也必須加快投入量子運算優勢佈署,同時也應伴隨建立量子防護技術,避免他人利用量子運算發動密碼暴力破解等攻擊。 John Roese更預期在美國國家標準暨技術研究院 (NIST)於今年選定首波可行的後量子演算法,預期相關應用工具會在2023年開始陸續推出,將促使更多企業亦須加快擁抱量子運算佈局。 回到上雲策略部分,企業更應該謹慎思考多雲發展的必要性,或是思考以雲端佈局發展的優先性。John Roese認為兩種模式會以不同思路發展,前者會成為現有運作模式的延伸,透過不同雲端服務擴展服務應用範疇,後者則會以雲端佈局為優先,甚至將所有服務上雲,透過軟體定義方式建構不同運算服務。 不過,各個企業會有不同發展需求,因此在是否需要上雲的發展策略也會不同,在擁抱雲端的應用發展模式也會不一樣,John Roese呼籲企業仍應慎重檢視自身發展需求,思考更合適的上雲策略,並且建構更合適的零信任基礎,更需針對未來的量子運算趨勢做好準備。
針對未來量子運算應用發展,NVIDIA宣布推出可打造精簡量子與經典程式模型的統一程式編寫平台QODA (Quantum Optimized Device Architecture,量子最佳化元件架構),讓量子運算可以變得更容易使用。 QODA背後是以NVIDIA DGX運算系統,結合科學超級運算中心,以及佈署在公有雲中的大量NVIDIA GPU運算資源,藉此模擬未來的量子運算設備執行模式,進而可將量子運算輕易應用在各類應用需求。 而NVIDIA更在東京舉辦的Q2B大會上宣布與多家供應商、超級運算中心合作,其中包含量子硬體供應商IQM Quantum Computers、Pasqal、Quantinuum、Quantum Brilliance、Xanadu,以及軟體供應商QC Ware、Zapata Computing,另外也包含於利希研究中心 (Forschungszentrum Jülich)、勞倫斯伯克利國家實驗室 (Lawrence Berkeley National Laboratory)與橡樹嶺國家實驗室 (Oak Ridge National Laboratory)。 目前許多量子研究組織已經採用NVIDIA GPU,以及cuQuantum軟體開發獨立的量子電路,而藉由QODA進行模擬運算,即可輕易打造完整量的子應用程式,進而讓人工智慧、高效能運算、健康、金融及其他領域的量子研發發展大幅度推進。 除了NVIDIA,目前包含AWS、Google Cloud、微軟等公有雲也已經開始佈署量子運算發展,其中也同樣藉由雲端運算、軟體模擬等方式建構量子運算模型,進而推動更多需要量子運算規模算力的技術領域發展。
2019年宣布推出量子運算服務Braket,並且在今年4月擴充服務硬體規格,加入全新量子處理單元Lucy之後,AWS近期更宣布成立量子網路中心 (Amazon Center for Quantum Networking,CQN),藉此致力解決量子運算在基礎科學和工程方面的挑戰,並且為量子網路開發新硬體、軟體及應用。 ▲位於加州帕薩迪納的加州理工學院校園內的AWS量子網路中心 量子運算未來很可能會為科學技術帶來顛覆性的變革,因此諸多政府機構及科技公司在過去十多年來,均投入大量資金研究、開發量子電腦。而目前量子電腦發展已有大幅成長,從原本只有少數研究機構能使用的精密實驗系統,變成可透過Amazon Braket等雲端服務取得的運算資源,讓世界各地的研究人員、開發人員,甚至是量子運算愛好者使用。 雖然目前量子運算仍為各界研究人員積極投入的重要領域,但量子運算只是量子技術發展其中一環。 為了釋放量子設備的全部潛力,需要將量子設備連接成一個量子網路,如同透過網路連接而成的設備。量子網路與量子電腦有相同發展潛力,其中一個應用是保護全球通訊的量子密鑰傳輸 (Quantum Key Distribution),可實現傳統加密技術無法達到的隱私和安全標準,更可將單個量子處理器串連並放大能力,提供強大且安全的雲端量子伺服器。 量子網路目前仍處於早期發展階段,如同量子電腦發展歷程,在完整發揮潛力之前,還有許多顯著的挑戰,而透過持續在量子研究和技術人員發展的投資,AWS將藉由量子網路中心進一步推動量子網路在隱私、安全和運算等方面的能力,拉近量子運算與客戶的距離。
在2018年推出第三代TPU加速器 (Tensor Processing Unit)後,Google在此次以線上形式舉辦的Google I/O 2021宣布推出第四代TPU加速器設計,另外更藉由展示旗下位於加州聖塔芭芭拉的Quantum AI Campus,藉此說明投入量子運算發展決心。 依照Google說明,第四代TPU加速器運算效能相比前一代產品提昇一倍,同時藉由4096組第四代TPU加速器構成的POD運算裝置,更可對應1 exaFLOPS以上的運算表現 (即每秒1018次浮點運算)。 目前第四代TPU加速器已經應用在旗下數據中心,預計今年底之前將會開放所有Google Cloud服務用戶使用,並且可應用在人工智慧技術、深度學習等運算領域。 另外,Google此次也由電影演員Michael Pena以輕鬆形式,帶領眾人參觀位於聖塔芭芭拉的Quantum AI Campus,藉此說明Google在量子運算發展決心,同時也強調目前能以10毫開 (millikelvin)低溫執行量子運算。 而在目前業界已經可實現100量子位運算量情況下,Google預期能藉由校正技術實現1000量子位運算,甚至挑戰高達100萬量子位運算規模,藉此對應未來更龐大規模運算需求。
隨著量子電腦技術發展持續成長,顯然過往對應一般電腦運算使用程式語言架構也必須因應改變,因此由蘇黎士聯邦理工學院所提出高階程式語言Silq,顯然就是為了改善此類問題。 由蘇黎士聯邦理工學院電腦科學學系教授Martin Vechev與其團隊所提出高階程式語言Silq,標榜能以更符合量子電腦運算模式,以更精簡、安全,同時容易理解形式進行編程,並且使量子電腦運算效能能更有效率發揮。 量子電腦因為可對應更龐大運算量,同時相對能以更短時間完成運算,因此被視為可解決日後需要大量算力的深度資料分析、人工智慧運算,或是各類研究應用的重要發展。 但相對傳統電腦運算模式,量子電腦基於計算位元與運算邏輯差異,使得運算程式編寫部分必須配合加入大量硬體描述,才能讓程式順利藉由量子電腦算力運作,因此也相對容易在大量硬體描述產生錯誤,而Silq就是為了解決此類問題所設計,讓程式設計人員可以將心思放在如何透過算式內容解決所需處理問題,而非在撰寫硬體描述花費大量心思與時間。 依照Martin Vechev團隊說明,Silq將能大幅簡化量子電腦編程,過程中更會自動識別、過濾運算過程所產生無用數據,進而讓量子算式導出正確數據。而在提出Silq之後,Martin Vechev預期將能加速量子電腦算力應用普及,同時也能讓程式設計人員更容易掌握量子電腦運作模式。
Intel去年與荷蘭台夫特理工大學及荷蘭國家應用科學院共同創立的量子技術研究機構QuTech攜手合作,並且以代號「Horse Ridge」為稱的低溫控制量子處理器,稍早於舊金山舉辦的2020年國際固態電路研討會中公布關鍵技術特性。 依照此次公佈論文內容,強調代號「Horse Ridge」的低溫控制量子處理器,將以Intel旗下22nm FinFET製程為基礎的CMOS技術打造,其中將四個射頻 (RF)通道整合在單一裝置內,而每個通道均可藉由「分頻多工 (frequency multiplexing)」方式控制多達32個量子位元,讓此款處理器量子位元處理數量總計可達128個,此外也能藉此將所有可用頻寬劃分為一系列不重疊的量子運算頻寬,並且讓每個運算頻寬承載獨立數據內容。 而在量子位元保真度和效能表現部分,Intel也藉由多工技術最佳化,讓處理器運算過程可以擴大執行規模,並且減少相位偏移 (phase shift)產生誤差,避免在不同頻率控制多個量子位元時,可能產生量子位元間的串擾 (crosstalk),其中包含讓各種頻率均可進行高精度調諧 (tune),使量子系統能以相同射頻頻率控制多個量子位元時調整、自動校正相移,藉此提高量子位元的量子閘 (gate)保真度。 同時,「Horse Ridge」能以更廣泛頻率範圍控制超導量子位元 (又稱為transmon),以及自旋量子位元 (spin qubit),藉此對應更高運算頻率。 Intel也透露著手研究矽自旋量子位元,使量子處理器有可能在高達1克耳文 (kelvin,K)溫度下工作。此項研究分別整合矽自旋量子位元裝置與「Horse Ridge」的低溫控制元件為基礎,進而可建置能在精簡封裝中提供量子位元和控制元件的設計方案,同時也能大幅簡化量子運算設備體積規模。
在目前的量子運算競爭中,微軟在Ignite 2019活動中以預覽形式公開旗下開放量子運算雲端服務Azure Quantum,預計會在近幾個月內對外推出。 在日前Google宣布在量子運算發展達成里程成就之後,微軟此次以預覽形式揭曉的開放量子運算雲端服務Azure Quantum,是從今年夏季開始針對開發者提供開源架構的量子運算開發工具,以及Q#匯編語言與模擬器,藉此讓更多開發者能跨入量子運算領域。 而在此次展示中,微軟則是與新創公司IonQ攜手合作,讓開發者能藉由量子運算開發工具或Visual Studio建造量子運算應用項目。 目前已經有越來越多廠商開始投入量子運算領域發展,例如IBM、Google都與Intel都已經在量子運算有相當程度佈局,而許多新創公司也計畫透過量子運算解決目前難解的能源開拓、醫學研究,甚至包含太空探索應用。