機器人應(yīng)該長得像人嗎?是否該保障“人權(quán)”?

時間:2017-05-18

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:近日,律師約翰.法蘭克.韋弗在《石板》雜志中羅列出他對機器人的意見,他同時也是《機器人也是人》這本書的作者。他認為我們應(yīng)該賦予機器人部分的人權(quán),就像公司享有特定的權(quán)利和義務(wù)一樣。

機器人也算是人嗎?機器人也能擁有人權(quán)嗎?它在人類生活中扮演了怎樣的角色?是絆腳石還是墊腳石呢?近日,律師約翰.法蘭克.韋弗在《石板》雜志中羅列出他對機器人的意見,他同時也是《機器人也是人》這本書的作者。他認為我們應(yīng)該賦予機器人部分的人權(quán),就像公司享有特定的權(quán)利和義務(wù)一樣。

為了讓個人化機器人融入我們的生活,設(shè)計者必須精通人類互動的心理學,這方面目前已經(jīng)有許多機器人學家正在著手進行。近日個人化機器人有了一個通用的專有名詞,叫做“社交機器人”,大量研究都在探討該如何讓機器人擁有社交方面的魅力;這一點對個人化的輔助型機器人來說特別重要。

研究顯示,包括老人在內(nèi),多數(shù)人都愿意將機器人作為個人管家;研究還發(fā)現(xiàn)人們很快就會把自己的情緒投射到機器人身上,并把它們當作一般人來打量。大家對機器人面容的喜好也會依功能而改變,例如給予財經(jīng)建議的機器人最好長的一臉聰明樣,提供趣味和娛樂的機器人則可以擁有猶如孩子般的可愛面孔;至于在個人健康照護方面的機器人,大家還是偏好擬人的面容。只不過每一個人對自己機器人外貌的喜好似乎都不太一樣,就跟維克多一樣,很多人都覺得面容與人類過度相像的機器人,反而令人渾身不自在又毛骨悚然。

一般來說,只有人類有所謂的情緒智商(emotionalintelligence,俗稱EQ),但是若想要讓機器人勝任個人和健康照護助理一職,讓它們學習模擬人類的情緒智商就變成很重要的一環(huán)。只是在設(shè)計機器人的社交能力前,機器人學家必須先針對機器人欲扮演的角色設(shè)計出合適的面容。就如同前面所說的,人類習慣把特定功能的個人特質(zhì)投注在機器人的面貌上,就像他們對不同職業(yè)的人也會有既定形象一樣。

伴侶機器人

引領(lǐng)世界邁向機器人科技的日本,現(xiàn)在正打算為它們快速老化的人口開發(fā)伴侶機器人。日資公司柴田(Shibata)已經(jīng)創(chuàng)造出一款名為Paro、渾身毛茸茸的可愛機械海豹,并且通過檢測,成為療養(yǎng)院用來進行動物治療的幫手。當使用者對Paro好的時候,它會柔聲低鳴;相反的,當使用者粗暴對待它時,它則會厲聲尖叫。研究人員發(fā)現(xiàn),Paro的陪伴能改善療養(yǎng)院住民心中的那股孤寂感,且效果與犬貓的陪伴十分類似。

此外,Paro也能從與使用者的互動中,學習該如何判斷自己主人的聲調(diào)和手勢?;蛟S有些人會懷疑機械寵物怎么可能達到跟真實動物互動時相同的好處,但是這些寵物對老人家來說,確實是比有血有肉的動物更好照顧。Paro不僅通過日本的認證,更通過意大利、瑞典和美國的檢測,在這些國家它都證明了自己的臨床功效。目前為止,機械寵物的功能還相當簡單,能表達的情緒不多,不過當其內(nèi)建軟件更為精進時,機械寵物也可以跟孩子一樣學習,快速與它們的主人建立起獨一無二的關(guān)系。

另外,日本電子界巨頭松下電器(Panasonic)將談話型機器人的外觀設(shè)計成貓咪或泰迪熊的樣子。這些機器人內(nèi)建語音識別軟件,它們可以跟療養(yǎng)院里的老人對話,甚至能在老人沒有響應(yīng)時對護士提出警告。如果日本嬰兒潮時代想要監(jiān)控年邁父母的日常狀態(tài),則可以購買一款名為Wakamura的機器人。這款高九十一公分的談話機器人,雙眼裝有攝影鏡頭,能夠作為無法隨侍在側(cè)的親屬的耳目,幫助他們掌握父母的動態(tài),提醒父母諸如按時服藥等生活瑣事。另外還有一款類似的機器人能夠提供視訊功能,讓親屬之間可以互相面對面交談。

盡管利用機器人監(jiān)控孱弱老人的立意良善,但是這不表示這些老人就愿意被人如此二十四小時監(jiān)控,就算這個在遠程觀看的人是他們的至親也不例外。

對他們來說,這樣全天候的監(jiān)視會令他們產(chǎn)生某種程度的不安感,因為無時無刻都有人能透過這些裝置窺聽他們的一舉一動。即便不是政府這類具有龐大勢力的組織在監(jiān)控他們,但多數(shù)人仍將隱私權(quán)視為重要的人權(quán)資產(chǎn),不愿就此放棄。更何況,我們很難保證不會有親屬將這類機器人用在不好的地方。假如這些機器人被廣泛使用在老人照護上,日后它們似乎也很可能應(yīng)用在監(jiān)控幼童和青少年身上。接著,在某個時間點,或許雇主也會用這項科技監(jiān)視員工的工作狀態(tài),執(zhí)法單位則會用它來監(jiān)控市民的行為舉止。到那個時候,誰能夠保障市民的隱私不受監(jiān)控?隱私權(quán)會不會就此成為過去式,還是社會將再制定出一套保障隱私權(quán)的律法?

另一項議題則是有關(guān)機器人的運作和維護,以及依賴機器人的使用者很可能因此失去了自理智能家園的能力。萬一有一天機器人故障了,智能家園里其他組件的運作也可能受到影響,而此時仰賴機器人執(zhí)行一切事物的使用者或許便只能束手無策的干等技術(shù)人員來排解問題;也有可能操作這類系統(tǒng)的復(fù)雜度,和其產(chǎn)生的小故障并不會讓老人家的生活變得更簡便,反而還會更加復(fù)雜化他們的生活。當然,不管使用者歡迎與否,將來MOBISERV是一定會有全天候監(jiān)控用戶的功能。

社交功能喪失與法律問題

不論你怎么看待這件事,MOBISERV機器人確實正在取代傳統(tǒng)照護者的功能,并和人類的生活交織出許多重要的連結(jié)。年老或孱弱者大多會非常倚賴它們,而忙碌的家屬也可能會高度仰賴它們陪伴他們的至親。雖然機械伴侶必然會模糊虛實之間的界線,然而,就算機械伴侶內(nèi)建的程序再怎么親民,也不可能讓使用者跟它們產(chǎn)生如同真人般的情誼。

機器人與人類之間的關(guān)系很難與人與人之間的情感相比擬,因為機器人只會對使用者唯命是從,不會對使用者提出任何挑戰(zhàn)。人與人之間的關(guān)系盡管變化莫測、難以看透,但也就是這樣,我們才得以從中成長。當人類能跟機器人以更簡單、方便的方式建立起關(guān)系,我們還會愿意跟真實的人類建立情誼嗎?事實上,與機器人相處越久,使用者就會越依賴它,同時他們喪失重要社交能力的風險也就會越大;也就是說,在使用機器人的過程中,使用者很可能因此以自我為中心,失去了尊重他人權(quán)益的能力。

個人化機器人的功能越發(fā)精良,用戶面臨過度依賴機器人和喪失社交技能的危機就越大。人工智能的快速演進,將使機器人的外貌與人類越來越相像,讓人難以分辨它和真人之間的差異。對某些人來說,機器人甚至可能會逐漸取代雙親或是配偶這類的重要關(guān)系。舉例來說,有人大概會開始喜歡和機器人交歡,因為他們的某些性癖好或許會讓他們的伴侶不安,但是機器人卻會迎合他的每一項喜好。機器人能透過觀察和試誤學習,這將讓它們看起來更加真實和聰穎。它們會順應(yīng)使用者的個性調(diào)整自己,與使用者發(fā)展出非常良好的關(guān)系。實際上比起人類,機器人或許會是更好的伴侶。隨著機器人越來越人性化,和人類可能越來越機械化,屆時男人、女人和機械之間的疆界大概會變得非常難以辨識。

“讓自己變成一個半機器人,并不純粹是為了讓你擁有更多的行動自由,這還和整個大環(huán)境的網(wǎng)絡(luò)有關(guān)?!泵绹軐W家唐納.海若威(DonnaHaraway)說。很快人類身上就會出現(xiàn)許多植入性的科技產(chǎn)物和仿生物對象,它們可以幫助人類完美地和整個物聯(lián)網(wǎng)連結(jié),物聯(lián)網(wǎng)當中也包括了具備高端性能的智能機器人。其實透過這套縱橫交錯的網(wǎng)絡(luò),我們每一個人都將擁有超乎本能的強大力量和能力,因為人類的本能和特質(zhì)將會透過電子生態(tài)系統(tǒng)(electronicecosystem)不斷向外擴張。盡管未來哲學家仍會對“人類究竟是由什么組成”這一項議題爭論不休,但若機器人的發(fā)展一直朝這個的方向進行,人類也必須思考是否該在律法上為它們規(guī)范出應(yīng)盡的權(quán)利和義務(wù);只不過這個想法能否成立,還要取決于大眾是否有將它們視同人類。

現(xiàn)在你可以在亞馬遜網(wǎng)絡(luò)商店或eBay拍賣網(wǎng)站上找到許多五花八門、待價而沽的機器人,在軍事用途和醫(yī)療方面也都能看見機器人的身影,然而真正促使大家注意到機器人合法性和道德責任這個議題的關(guān)鍵點,是自動駕駛汽車。

谷歌的自動駕駛汽車已經(jīng)在美國駛過四十萬公里的路,到現(xiàn)在都沒有出過任何狀況。但是如果有一天這輛車涉及交通事故,造成人身財產(chǎn)的損傷該怎么辦呢?誰需要負責相關(guān)的法律責任?駕駛嗎?可實際上這臺車的運作又不受他操控。谷歌嗎?但他只不過是設(shè)計和編寫這輛車的廠商。還是該由車子自己負責?傷者能夠向誰求取賠償?倘若這輛車違反交通規(guī)則時,又是誰會收到罰單?

司法裁判這類事件的責任歸屬取決于眾人對機器人的看法,也就是我們是否有將它們的行為等同人類視之;不少律法專家都建議應(yīng)該賦予無人駕駛飛機和自動駕駛汽車這類機器人部分法定人權(quán),如此一來,一旦它們造成意外,才能讓它們負擔起責任。就連前面提到的Watson也應(yīng)該將它視為是一個享有法律上權(quán)利和義務(wù)的人,以免當它做出誤診,導(dǎo)致患者受傷或死亡時,患者求助無門。

律師約翰.法蘭克.韋弗(JohnFrankWeaver)在《石板》(Slate)雜志中羅列出他對機器人的意見,他同時也是《機器人也是人》(暫譯,RobotsArePeople,Too)這本書的作者。他認為我們應(yīng)該賦予機器人部分的人權(quán),就像公司享有特定的權(quán)利和義務(wù)一樣。他列出了應(yīng)該給予機器人的五大權(quán)利和義務(wù),這可以讓我們免于為不必要的訴訟花費心力,還可確保受害者能夠迅速地得到補償。

 

機器人的“人權(quán)”?

韋弗想要賦予機器人的第一項權(quán)利是,讓它們享有簽訂和執(zhí)行合約的權(quán)利。舉例來說,假如想要亞馬遜網(wǎng)絡(luò)商店用無人駕駛飛機將一份包裹送到你家門口,你必須簽訂一份小合約,保障亞馬遜不必因為無人飛機弄壞包裹或是送錯東西而受罰。由于亞馬遜和這類失誤毫無關(guān)聯(lián),所以它并不需要負起法律上的責任,因此這類失誤的責任就落到了機器人的身上。至于想要讓機器人負起相關(guān)責任,就必須強制使用者為它們保險。

韋弗以自動駕駛汽車為例,說明機器人必須保險的重要性。如果這些汽車有保險(由汽車的持有人購買),萬一發(fā)生意外的時候,車主就不必遭到起訴,這將會提升民眾購買自動駕駛汽車的意愿。傷者不但可以迅速獲得保險的理賠,同時車主也不用為無謂的法律訴訟勞心勞力,減少不必要的沖突。

依此脈絡(luò)繼續(xù)往下看,假以時日機器人或機器也能創(chuàng)作出藝術(shù)、音樂和文學這類的作品,韋弗認為屆時機器人也應(yīng)該擁有知識產(chǎn)權(quán)。他建議把這類機器人或程序的知識產(chǎn)權(quán)歸列在發(fā)明者的名下,讓他們擁有十年的專利權(quán),十年過后,這些成品就能開放給大眾使用。這樣的規(guī)范不僅能激勵發(fā)明家的創(chuàng)作動力,更可避免特定人士壟斷相關(guān)技術(shù)。

此外,機器人在某些情況下也必須擔負起責任。這讓保險更有意義,因為發(fā)生車禍時,保險就會理賠相關(guān)的損失,不用輪到車主自掏腰包。韋弗的最后意見和保姆有關(guān),他預(yù)期到了某個時間點,家長將會仰賴機器人保姆來看照孩子。雖然想要讓這件事情成真還有一大段路要走,但韋弗認為它遲早有一天會變成一件再普通不過的事。

除此之外,他列出的機器人權(quán)利中,還包括了讓機器人有權(quán)成為未成年人的監(jiān)護人這一項。在對他的想法感到驚恐之前,我們必須先認清一件事,就法律上來說,孩子的監(jiān)護權(quán)在一天之中本來就會歷經(jīng)多人之手。他說:

“在我們的司法體系里,孩子永遠在某些人的監(jiān)護之下。每一天他們的監(jiān)護權(quán)都會由父母的手中交付給學校、保姆,然后再重新回到他們父母的手中?!?/p>

賦予機器人保姆暫時性的監(jiān)護權(quán),意味著當發(fā)生狀況時機器人保姆也必須負起相對應(yīng)的責任。除此之外,強制機器人負起法律責任的做法,也將激勵制造商竭盡所能創(chuàng)造出最安全的機器人產(chǎn)品。

然而,有些人會無條件的反對給予機器人部分人權(quán)的道德影射,但我認為有這類想法的律法專家都已經(jīng)陷入現(xiàn)行法條的框架。艾默里大學法學院的資深講師馬克.高爾菲德(MarkGoldfeder)指出:

“法律上的人格無關(guān)乎道德、情感或生命。身為一個法人,在司法體系中就享有行使特定權(quán)利和義務(wù)的資格,像是簽訂契約、擁有財產(chǎn)和進行法律訴訟等。并非所有的法人都享有相同的權(quán)利和義務(wù),某些法人只有在特定的情況下才會被視作自然人,享有自然人的權(quán)利?!?/p>

依目前的狀況來看,法律已經(jīng)有賦予公司部分人權(quán)的成熟先例。高爾菲德認為我們不需要等到機器人發(fā)展到與真人性能相仿時,才開始賦予它們律法上的特定人權(quán)。他說:“把一個個體當作人來看待,授予其權(quán)利和義務(wù),是一種評估個體的手段,它無關(guān)乎這個個體長什么樣子,或者是不是人類。”對他們來說,由于機器人在律法上只被賦予部分人權(quán),因此這并不表示在社會和道德方面我們會將它定義為“人類”

此外,機器人還有一個很大的好處,就是它可以在人類無法承受的危險環(huán)境下執(zhí)行任務(wù),比方說充滿輻射的區(qū)域或是戰(zhàn)況激烈的戰(zhàn)場。盡管迄今還沒有人將機器人的耗損和人類的死亡畫上等號,但是當機器人科技越來越進步時,機器人所擁有的權(quán)利或許也會越來越多,這當中也包括了不被關(guān)機的權(quán)利。假以時日,關(guān)閉機器人的電源說不定會被視為一種犯罪行為,屆時說不定機器人會受到與人類相似的律法保護?;蛟S,我們在決定該給機器人哪些權(quán)利時,也要將它與其他個體之間建立起的深厚情誼一并納入考慮,因為屆時終止一臺機器人運作所衍生的苦痛,可能不會比失去至親來得少。

再者,萬一心智上傳技術(shù)確實成真,不論他們是否有把心智植入機器人的體內(nèi),都一定會讓這個議題更難理出頭緒。從法律和道德層面來看,這些復(fù)制人該享有和原來那個人相同的權(quán)利和義務(wù)嗎?透過心智上傳創(chuàng)造出來的個體,是否可以承襲那名已故者的所有權(quán)利,成為他孩子的父母或配偶的伴侶,甚至是接管他生前的工作?又或者,它應(yīng)該將一切歸零,從頭開始“生活”?

還有一種情況會讓這個問題更加復(fù)雜化,那就是有人在還活著的時候,就復(fù)制了自己的心智,創(chuàng)造出了一個自己的分身。這樣的狀況并非完全偏離現(xiàn)今科學的發(fā)展方向。研究人員現(xiàn)在正透過掃描腦部神經(jīng)結(jié)構(gòu)的影像,試圖理解大腦的運作并模擬出第一個虛擬大腦。如此一來,享有法定人權(quán)的機器人是否可以擁有人類大腦的數(shù)字化副本?當它和另一個人同時擁有相同的思緒時,它能享有法定上的哪些權(quán)利?這個復(fù)制機器人能夠再度復(fù)制它自己嗎?或者這套心智原本的主人可以為自己創(chuàng)造出好幾個分身嗎?他能夠享有這些分身的“所有權(quán)”,并且和他們發(fā)展出什么關(guān)系嗎?雖然這些問題已經(jīng)超出這本書討論的范疇,但它們值得我們從現(xiàn)在就開始好好思索。

另一方面,之后我們有沒有可能發(fā)展出具有危險性或破壞性的機器人呢?具有人性的機器人一直以來都長踞科幻小說里的要角,而今日部分研究人員也正嘗試為機器人編寫某些道德框架,避免它們對人類造成傷害。將機器人道德化的應(yīng)用并非與我們毫不相干,其實生活中的許多機器人都需要擁有這種能力。即使是無人駕駛汽車,也有可能必須面臨嚴酷的道德抉擇,而這類抉擇就算換作是人也會舉棋不定。

想象一下,一輛無人駕駛汽車偵測到路邊有一名推著嬰兒車的年輕女性,但是如果它想要繞過她前行,就會撞到另一輛載有兩名乘客的汽車。試問這輛車該撞上媽媽和嬰兒,還是把車頭向右轉(zhuǎn),撞上其他的車輛?

還有當機器人在協(xié)助災(zāi)后或戰(zhàn)后救援時,萬一同時發(fā)現(xiàn)好幾名受難者,它又該如何決定該先救治誰呢?因此為機器人編寫道德方面的程序是當務(wù)之急,并非是可以等日后再慢慢處理的小事。

具有道德意識的機器人?

說到這里,我要再一次提醒大家,別忘了軍方一直都是走在科技創(chuàng)新的最前線。美國軍方一直挹注經(jīng)費給由塔夫茨大學(TuftsUniversity)、倫斯勒理工學院(RensselaerPolytechnicInstitute)、布朗(Brown)、耶魯(Yale)和喬治敦大學(GeorgetownUniversity)共同合作的研究計劃,試圖找出如何讓機器人心懷道德意識的方法。這項計劃顯示出美軍對無人飛機依賴度的提升。目前為止,無人機皆需要軍官在遠程遙控,但軍事研發(fā)的導(dǎo)向是希望開發(fā)出能夠快速自行判斷敵我,并迅速估量出可接受附加損害的自主性武器。

軍用機器人,無疑是證明機械是否能做出道德決定的最佳測試者,而軍方在這方面已經(jīng)有了一個好的開始,因為很多軍事決定都是依據(jù)國際公認的作戰(zhàn)公約進行判斷。喬治亞理工學院的人工智能專家,同時也著有《管理自主性機器人的致命行為》(暫譯,GoverningLethalBehaviorinAutonomousRobots)一書的羅訥德.阿爾金(RonaldArkin)認為,軍用機器人能比真人軍官做出更精準的決定,因為它們不容易受到憤怒或是仇恨這類的人性弱點束縛。

不僅如此,機器人還能夠快速考慮所有行動的可能性,再從中選取出最佳方案。只不過相對的,機器人體內(nèi)的程序也不可能應(yīng)付所有現(xiàn)實生活中發(fā)生的突發(fā)狀況。例如自殺炸彈客和恐怖份子或許會喬裝成一般民眾來躲避自主性機器人的偵測,而這將會引起一個道德上的難題。假設(shè)有一個通緝中的恐怖份子,喬裝成平民百姓,尋求醫(yī)院或是學校的庇護,在這個情況下,機器人應(yīng)該要狙擊這名恐怖分子嗎?即使這會造成許多無辜的傷亡?它能夠權(quán)衡出當下造成的犧牲,將可能拯救多少人幸免于恐怖分子的傷害嗎?

評論者不太看好這些所謂內(nèi)建道德模式的機器人,因為即便是設(shè)計者為它們編寫了大量的相關(guān)程序,但戰(zhàn)爭或災(zāi)難現(xiàn)場里的狀況千奇百怪,有許多狀況機器人根本無法妥善處理。機器人專家諾埃.夏基(NoelSharkey)說,不論我們把機器人做得多么精細,它們也永遠不可能產(chǎn)生道德意識—真正具有道德意念的決定還是必須靠人類的意志和能力來判斷。我們必須認清一件事,在人類的生活中,很多時候就連我們自己都無法為一件事做出最好的決定。現(xiàn)實世界里有太多的變量,我們雖然可以先針對各種不同的決定,設(shè)想出每一種可能的結(jié)果,但是萬一我們沒有預(yù)想到某些狀況,就代表我們也沒辦法事先把這些狀況編寫進機器的程序里。

機器人大概永遠都不能明辨是非。它們或許只能在毫無變量的狀況下,從許多方案中挑選出一個比較好的。不過若要把自主性機器人放入生死交關(guān)的情境中,就意味著它們也必須做出攸關(guān)生死的決定。機器人學家不僅需要和工程師、語言學家、程序設(shè)計師和心理學家合作,同時也必須詢問倫理學家、律師和政策制訂者的意見。

在科學家和哲學家絞盡腦汁思忖該如何賦予機器人道德意識之時,身為人類一員的我們也應(yīng)該仔細思考,該怎么樣才能解決人類日益依賴機器人和其他科技的問題。

也許人們會因為依賴機器人而失去最重要的社交技巧,而這可能對社會和心理造成很大的傷害。一旦機器人成為人類從出生到死亡的主要照護者,這將意味著家庭和社會對個體的重要性也會受到損害。當機器人化身為我們的保姆、朋友、傭人和愛人,我們還會需要彼此嗎?我們可能會默默的對生活中無所不在的機器人產(chǎn)生依賴感,或許在過程中沒有太大地警覺,但等到我們開始意識到它們對社交、情感和精神發(fā)展上的傷害時,大概也為時已晚了;因為我們已經(jīng)對機器人產(chǎn)生無法自拔的依賴感,更忘了該如何跟“真人”相處。

今日,或許是我們?nèi)杂修k法不受任何依賴者盲目意見的影響,從客觀角度去評判機器人用途的最后一個時間點。我們必須仔細思考,未來機器人到底會成為人類發(fā)展的墊腳石,還是絆腳石呢?

中傳動網(wǎng)版權(quán)與免責聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0