AI和工業(yè)4.0之間,還有多遠的差距?

本文為 AI 研習社編譯的技術(shù)博客,原標題 :

Spanning the reality gap between AI and Industry 4.0

作者 |Philip Montsho

翻譯 | ciky奇、Ophria

校對 | 鄧普斯?杰弗 審核| 永恒如新的日常 整理 | 菠蘿妹

https://medium.com/@p.k.montsho/a-summary-of-industry-ready-state-of-the-art-computer-vision-techniques-a7f2b893de2f

如今,人工智能在工業(yè)領(lǐng)域有著蓬勃發(fā)展趨勢,因為自動化以及優(yōu)化仍是數(shù)字革命的主要焦點。在本文中,我們將回顧近幾年在AI社區(qū)中那些令人興奮的最先進的計算機視覺技術(shù),這些技術(shù)被認為是工業(yè)就緒的,而且對工業(yè)用例產(chǎn)生重大而又實際的影響。其中一些技術(shù)對性能的提升達到了令人難以置信的程度,超越了人類能達到的性能水平,從而超出了大多數(shù)行業(yè)所期望的精度和可靠性標準。在基本的計算機視覺任務(例如圖像分類)中取得的驚人進步,使得可靠地結(jié)合多種技術(shù)來創(chuàng)建新的復合技術(shù)從而實現(xiàn)之前從未在工業(yè)環(huán)境中探索過的全新用例成為可能。話雖如此,這些新技術(shù)已經(jīng)證明其結(jié)果可與那些只能通過非常密集的硬件專用系統(tǒng)才能獲得的精度和可靠性結(jié)果相媲美。雖然在實現(xiàn)這些專用系統(tǒng)和安裝與之相關(guān)的硬件方面存在實際的困難和限制,但相機是很容易買到的,從而極大地擴大了用例范圍。AI賦能的計算機視覺系統(tǒng)使得有可能跨入到一個新的領(lǐng)域,加速了工業(yè)4.0,真正數(shù)字化和物理現(xiàn)實增強的進程。

在我們深入了解計算機視覺領(lǐng)域的最新進展之前,讓我們先介紹一些基本概念以及深度學習和計算機視覺這方面的歷史事件。

計算機視覺簡介

計算機視覺是一門科學,旨在使計算機能夠理解并從圖形和視頻中洞悉信息。計算機視覺,即自動執(zhí)行視覺任務的能力,例如從圖形或視頻中提取和分析有用的信息。

機器學習和深度學習簡介

機器學習是算法和統(tǒng)計模型的科學研究,它依賴于數(shù)據(jù)驅(qū)動的方法來做決策而不是基于規(guī)則的方法。給定大量高質(zhì)量數(shù)據(jù)并通過改進算法,機器學習系統(tǒng)能夠逐步提高其在特定任務上的性能。深度學習是機器學習的子類,完全側(cè)重于一組可描述為網(wǎng)絡(luò)的數(shù)學算法。它們起初受到人腦中發(fā)現(xiàn)的生物神經(jīng)網(wǎng)絡(luò)的啟發(fā),同樣,人工神經(jīng)網(wǎng)絡(luò)具有數(shù)百萬個人工突觸,數(shù)學上由數(shù)百萬個簡單的線性代數(shù)方程表示。

深度學習驅(qū)動計算機視覺

自2012年深度學習神經(jīng)網(wǎng)絡(luò)一直是計算機視覺的主要關(guān)注點是有理由的。由深度學習驅(qū)動的計算機視覺系統(tǒng)的優(yōu)點是它們具有更高準確性,更靈活,且對大量的光線條件變化,視點,尺度,方向,與背景融合,類內(nèi)差異,變形以及視覺遮擋等情況具有更高容忍度。但最重要的是,它們啟發(fā)了新的用例。

早期的計算機視覺模型依賴于原始像素數(shù)據(jù)作為機器學習模型的輸入。然而,單獨的原始像素數(shù)據(jù)不足以包含圖像中對象的千變?nèi)f化。

深度學習驅(qū)動的計算機視覺基于深度神經(jīng)網(wǎng)絡(luò)可在訓練階段自動提取和創(chuàng)建特定任務的特征,然后將其用于執(zhí)行計算機視覺任務。

下圖突出了深度學習和計算機視覺近6年歷史中最重要的一些事件。

2012年引入深度神經(jīng)網(wǎng)絡(luò)所帶來的突破使得圖像分類誤差減少了約10%(從2011年的25.8%降至2012年的16.4%)。

2015年最先進的算法在圖像分類方面的表現(xiàn)超過了人類水平(5.1%,Russakovsky et al.),準確率為3.57%。

總體而言,深度神經(jīng)網(wǎng)絡(luò)的引入導致圖像分類誤差減少10倍(從2011年的25.8%將至2017年的2.3%)。

值得注意的是,上述結(jié)果是在ImageNet數(shù)據(jù)集上實現(xiàn)的,其中20,000個類別具有典型類別,例如“氣球”或“草莓”,由數(shù)百個低分辨率469x387像素圖像組成。計算機視覺系統(tǒng)應用于具有較少類別,較少變化和較多數(shù)量的較高分辨率圖像的特定任務時,其準確度可以高達99.9%。這使得完全獨立自信地運行一個系統(tǒng)成為可能。

現(xiàn)在我們已經(jīng)介紹了基礎(chǔ)知識,我們可以更詳細地了解這些技術(shù)了。

圖像分類

在本節(jié)中,我們將介紹圖像分類,這是將一組固定類別中的一個標簽分配給圖像的任務。這是計算機視覺中的核心問題之一,盡管其簡單,但其具有各種各樣的實際應用。許多其它看似不同的計算機視覺任務(例如圖像 字幕,目標檢測,關(guān)鍵點檢測和分割)可以簡化為圖像分類,其它任務利用全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)。以下視頻片段說明了一個非常簡單的分類事例。

圖像關(guān)鍵字和字幕

該技術(shù)處于計算機視覺和自然語言處理(NLP)這兩AI中最有趣領(lǐng)域的交點。關(guān)鍵字是用于描述照片或圖像元素的單詞。關(guān)鍵字是對照片添加描述性術(shù)語的過程。

圖像字幕是指基于圖像中的對象和動作從圖像或視頻生成文本描述的過程。在下圖中可以看到這方面的一個例子。

目標檢測

目標檢測是一種計算機視覺技術(shù),用于識別和定位圖像或視頻中的對象。這通常通過帶邊框標記的框包圍對象來完成。目標檢測是自動駕駛汽車背后的關(guān)鍵技術(shù),使它們能夠識別其他汽車或區(qū)分行人與燈柱。它還可以用于各種應用,例如工業(yè)檢測和機器人視覺。由于ImageNet競賽,僅2010年至2014年間,定位誤差(從42.5%降至25.3%)就減少了1.7倍。下面的視頻片段顯示了該技術(shù)的實時實施結(jié)果,用于檢測城市中發(fā)現(xiàn)的與一輛自動駕駛視覺系統(tǒng)相關(guān)的車,人以及其他常見物體。

關(guān)鍵點檢測和姿態(tài)估計

關(guān)鍵點被視為圖像有趣或重要部分的特征。它們是圖像中的空間位置或點,定義圖像中有趣的內(nèi)容或突出的內(nèi)容。關(guān)鍵點之所以特殊,是因為它使得跟蹤修改后的圖像中的相同關(guān)鍵點成為可能,其中圖像或圖像中的對象會發(fā)生旋轉(zhuǎn)、收縮/膨脹或變形。

姿態(tài)估計是計算機視覺中的一個普遍問題,其目的是檢測物體的位置和方向。這通常意味著檢測對象的關(guān)鍵點位置。這種技術(shù)可以用來創(chuàng)建一個非常精確的二維/三維模型,描述對象關(guān)鍵點的位置,然后可以用來創(chuàng)建一個數(shù)字孿生兄弟。

例如,在姿態(tài)估計問題中,可以檢測到常見的方形家居對象的角點,從而可以深入了解對象在環(huán)境中的三維位置。

同樣的方法也可以用于檢測人體姿勢,人體上的關(guān)鍵點如肩膀、肘部、手、膝蓋和腳都會被檢測到。

語義分割

下一種技術(shù)稱為語義分割(也稱為對象掩蔽),它解決了計算機視覺領(lǐng)域的一個關(guān)鍵問題:直觀地分離圖像中的物體。從大的圖像上看,語義分割為完全理解場景鋪平了道路。這是非常有用的,因為它使計算機能夠精確地識別不同物體的邊界。場景理解作為一個計算機視覺的核心問題,其重要性在于從語義分割中所獲得的知識使得越來越多的應用程序的健壯性得以提升。在下面所示的自動駕駛汽車示例中,它幫助汽車識別道路和其他物體的準確位置。

下面提到的技術(shù)屬于圖像到圖像轉(zhuǎn)化的范疇。對于下面的技術(shù),網(wǎng)絡(luò)通過提高質(zhì)量而不是提取見解或得出結(jié)論來增強圖像和視頻。

超分辨率:

此任務的目標是在同時提高細節(jié)級別的同時提高圖像的分辨率。一個非常深的神經(jīng)網(wǎng)絡(luò)最近在圖像超分辨率方面取得了巨大的成功。放大倍數(shù)適用于2倍放大,如下圖所示。

夜視

在弱光下成像是一項挑戰(zhàn)。短曝光圖像會產(chǎn)生噪聲,長曝光時間會導致動態(tài)模糊。后者通常也不切實際,尤其是對于手持攝影。人們已經(jīng)提出了各種去噪、去模糊和增強技術(shù),但它們的效果在極端條件下是有限的,例如夜間高速攝影。為了提高目前的標準,研究人員引入了一種基于深度網(wǎng)絡(luò)端到端訓練的低光圖像處理技術(shù)。該網(wǎng)絡(luò)直接利用原始傳感器數(shù)據(jù),取代了許多傳統(tǒng)的圖像處理技術(shù)。這可以在下面的圖像中清楚地看到,暗噪聲圖像得到了顯著的增強。

在黑暗中學會看東西(Chen等人,2018年五月)

Super SloMo

視頻插值旨在在兩個連續(xù)幀之間生成中間鄭這些人工生成的畫面與原始圖像有著不可區(qū)分的視覺特征。這項技術(shù)是放大攝像系統(tǒng)性能的理想方法。對多個數(shù)據(jù)集的實驗結(jié)果表明,深度學習方法比現(xiàn)有的方法具有更好的一致性。這項技術(shù)的結(jié)果可以在下面的視頻剪輯中看到,在原始幀之間添加7個中間幀來創(chuàng)建平滑的慢動作視頻。

Super SloMo:視頻插值多中間幀的高質(zhì)量估計(Jiang等人,2018年7月)

在本文中,我們研究了許多計算機視覺技術(shù),這些技術(shù)是由最近幾個月開發(fā)的深入學習提供動力的,并且已經(jīng)展示了令人難以置信的結(jié)果,并準備在行業(yè)中實施。這些技術(shù)處于技術(shù)的前沿,通過提高速度、準確性、可靠性和靈活性,表現(xiàn)出明顯的優(yōu)于以前的技術(shù)。

創(chuàng)新的關(guān)鍵驅(qū)動因素是近年來人工智能研究論文的數(shù)量激增,特別是在計算機視覺領(lǐng)域,使充分利用技術(shù)進步來改善工業(yè)運營的最新趨勢變得更加重要。

謝謝你的閱讀!希望,你學到了一些新的和有用的關(guān)于最先進的計算機視覺技術(shù)的東西,這些技術(shù)已經(jīng)為工業(yè)上的實際應用做好了準備。

如果你想了解更多,請一定要為這篇文章鼓掌,并跟隨我。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2019-01-30
AI和工業(yè)4.0之間,還有多遠的差距?
本文為 AI 研習社編譯的技術(shù)博客,原標題 : Spanning the reality gap between AI and Industry 4.0 作者 |Philip Montsho 翻譯 |

長按掃碼 閱讀全文