《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 無人機可以利用人工智能技術(shù)探測人群中的暴力行為

無人機可以利用人工智能技術(shù)探測人群中的暴力行為

2020-06-22
來源:電子發(fā)燒友
關(guān)鍵詞: 人工智能 無人機

  許多人都會對無人機監(jiān)控這種方式感到不舒服,但這并不能阻止監(jiān)管機構(gòu)通過無人機開發(fā)出更有效的監(jiān)管方式研究。最近國外科學(xué)家們開發(fā)出了一種新的試驗性無人機系統(tǒng),該系統(tǒng)可以利用人工智能技術(shù)探測人群中的暴力行為。

pIYBAF7m7BaAV8cFAAEMNlv1h8I168.png

  該團隊利用機器學(xué)習(xí)算法識別人類一些典型的暴力動作,比如拳打腳踢、射擊和刺傷等。當(dāng)這些動作出現(xiàn)在無人機監(jiān)控的畫面中后,就會立刻被自動標(biāo)記出來。從理論上來說,這種技術(shù)可以檢測沖突現(xiàn)場的斗毆或者查明非法槍支來源。

  不過目前這項技術(shù)還沒有做好被實際應(yīng)用的準(zhǔn)備。研究人員在一個相對理想的條件下,在開闊的產(chǎn)地下通過志愿者做出各種劇烈的動作用來試驗。

  人工智能技術(shù)的識別率達(dá)到了94%。但是如果測試人員增加到10人,那么這一比例就下降到79%,有些無法讓人接受。

  因此目前這套系統(tǒng)暫時還無法在熙熙攘攘的街道上立刻找到暴力沖突的發(fā)起者,并且很容易提供錯誤的結(jié)論。研究人員希望能夠在印度的節(jié)日中投放自己的無人機系統(tǒng)對自己的成果進行實地測試,但不會作為評判的具體依據(jù)。

  另外這項技術(shù)還有另外一個關(guān)于倫理的問題,那就是面部識別系統(tǒng)的濫用以及對可靠性的存疑。因此它必須要與相關(guān)的法律和使用規(guī)范結(jié)合起來才具有更大的使用價值。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。