• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      ChatGPT爆火所引發(fā)的強(qiáng)人工智能社會(huì)接納研究

      2024-01-18 02:07:36郭俏劉玉涵莫雅涵
      經(jīng)濟(jì)研究導(dǎo)刊 2023年23期
      關(guān)鍵詞:倫理道德

      郭俏 劉玉涵 莫雅涵

      摘? ?要:社會(huì)接納度研究將從強(qiáng)人工智能的法律主體地位問題、道德倫理思考以及帶給社會(huì)經(jīng)濟(jì)的哲學(xué)思考三個(gè)角度展開。強(qiáng)人工智能在法律中是“自由人”,即擁有法律主體地位是其在法治社會(huì)的基礎(chǔ),因此主體研究是接納度研究的重要組成部分。強(qiáng)人工智能可能擁有人類的形態(tài)和意識(shí),是否以人遵循的社會(huì)道德來(lái)要求強(qiáng)人工智能,在判斷社會(huì)對(duì)其的接納程度上有重要意義??萍疾粩喟l(fā)展,新一輪的產(chǎn)業(yè)革命逐漸到來(lái),更好地引導(dǎo)資本與技術(shù)的協(xié)調(diào)發(fā)展,構(gòu)建新人工智能經(jīng)濟(jì)生態(tài)也將會(huì)是接納研究的一個(gè)重點(diǎn)。

      關(guān)鍵詞:強(qiáng)人工智能;法律主體地位;倫理道德;經(jīng)濟(jì)哲學(xué)思考

      中圖分類號(hào):C916? ? ? ?文獻(xiàn)標(biāo)志碼:A? ? ? 文章編號(hào):1673-291X(2023)23-0037-03

      未來(lái),隨著人工智能的更高形態(tài)——強(qiáng)人工智能的出現(xiàn)、發(fā)展,甚至廣泛的應(yīng)用,在強(qiáng)人工智能擁有人的姿態(tài)和意識(shí)時(shí),我們可能會(huì)面臨的其中一個(gè)重要而復(fù)雜的議題:強(qiáng)人工智能與人類相似甚至相同的法律主體地位以及法律將對(duì)其有何限制。在探討該問題時(shí),考慮到強(qiáng)人工智能擁有人的屬性,我們又必須將與其相關(guān)的倫理道德納入思考,然而道德判斷的驅(qū)動(dòng)力除理性的反思平衡之外,又包括情感的直覺體驗(yàn),而強(qiáng)人工智能可能缺乏人類的情感和道德判斷力,使得一些倫理道德問題難以解決。我們需要深入思考如何在維持人類與強(qiáng)人工智能共同體的前提下,推動(dòng)其發(fā)展,規(guī)范其應(yīng)用。更進(jìn)一步則是某種意味的哲學(xué)思考和映射到表層的經(jīng)濟(jì)影響。在此過程中,強(qiáng)人工智能的發(fā)展對(duì)經(jīng)濟(jì)格局和發(fā)展的影響問題也將逐步浮出水面,如何將其應(yīng)用到促進(jìn)經(jīng)濟(jì)社會(huì)發(fā)展的浪潮中,這個(gè)過程也會(huì)引發(fā)一系列對(duì)于促進(jìn)生產(chǎn)力發(fā)展的哲學(xué)思考。

      一、強(qiáng)人工智能的法律主體地位問題

      今年以來(lái),ChatGPT在各行各業(yè)的高應(yīng)用性值得驚嘆,在法律人工智能界的應(yīng)用同樣獲得了較高期待。未來(lái)可能會(huì)出現(xiàn)的強(qiáng)人工智能技術(shù)有望破除法律人工智能的自然語(yǔ)言理解瓶頸。不僅如此,憑借其超強(qiáng)的學(xué)習(xí)能力,未來(lái)的強(qiáng)人工智能很有可能作為律師甚至是被告出現(xiàn)在法庭。因此,對(duì)于強(qiáng)人工智能是否應(yīng)該獲得法律主體地位以及法律對(duì)其的限制度有待研究。

      (一)強(qiáng)人工智能獲得法律主體的現(xiàn)實(shí)必要性

      目前人工智能相關(guān)法律問題的焦點(diǎn)主要集中在人工智能系統(tǒng)上,強(qiáng)人工智能猶如人體中的靈魂,賦予機(jī)械以生命[1],一旦真正的強(qiáng)人工智能面世,同樣具有人類面孔甚至意識(shí)的“機(jī)械”不再適用于任何一條法律,這必將引起轟動(dòng)并使得現(xiàn)行法律秩序產(chǎn)生變動(dòng)。

      法律人格是適用現(xiàn)行多數(shù)法律的前提,人工智能會(huì)影響各個(gè)法律領(lǐng)域,民法、刑法或其他法律均面臨人工智能法律人格的爭(zhēng)議。法律主體的確定對(duì)解決任何爭(zhēng)議都至關(guān)重要,因?yàn)橹挥邢却_定法律主體,才能接下來(lái)討論法律責(zé)任的分配問題。對(duì)人工智能是否被承認(rèn)為法律主體的討論也因此而起。

      (二)賦予其主體地位的路徑

      從法理學(xué)上來(lái)看,判斷主體是否為法律主體需要從三個(gè)層面入手:能否做出獨(dú)立的意思表示、是否擁有獨(dú)立的財(cái)產(chǎn)、能否獨(dú)立承擔(dān)責(zé)任。因此,賦予人工智能法律主體地位的路徑也應(yīng)當(dāng)從這三個(gè)維度進(jìn)行[1]。

      強(qiáng)人工智能在未來(lái)或許可以根據(jù)現(xiàn)實(shí)需要,通過人格擬制技術(shù),獲得有限的法律人格和主體地位。并且為了實(shí)現(xiàn)法律背后的制度目的,人格擬制技術(shù)的運(yùn)用也有利于構(gòu)建法律關(guān)系,并且推動(dòng)人們做出正確的價(jià)值判斷。

      不過,在何種情形、范圍、限度內(nèi)賦予人工智能的法律主體地位,理論與實(shí)踐尚欠缺應(yīng)有的回應(yīng)。賦予人工智能主體地位的同時(shí),也應(yīng)對(duì)強(qiáng)人工智能設(shè)置權(quán)利邊界和權(quán)利保留,明確其法律和道德權(quán)利和行為效力的限度[1]。

      (三)賦予其法律主體地位的意義

      賦予人工智能法律主體地位,不僅僅是道德考量,同時(shí)也是關(guān)注法律關(guān)系的實(shí)踐需要。承認(rèn)人工智能的法律“人格”,在一定層面上等于構(gòu)建了新型智能社會(huì)的法律模式,這意味著需要更加合理地界定其權(quán)責(zé)范圍、設(shè)計(jì)科學(xué)的相關(guān)法律制度,從而使法律主體得到延伸,塑造一個(gè)價(jià)值多元的社會(huì)。

      (四)賦予其法律主體地位的社會(huì)考量因素

      其一是技術(shù)上能否界定人工智能系統(tǒng)的范圍,其二是經(jīng)濟(jì)上能否提高社會(huì)福祉,其三是法律上是否存在相應(yīng)規(guī)則不健全而需要加以規(guī)范的緊迫現(xiàn)實(shí)性,其四是精神主觀上存在推理能力與道德責(zé)任[2]。

      基于以上考量因素,在避免貿(mào)然承認(rèn)強(qiáng)人工智能具有完整的法律主體地位的同時(shí)加以人類限制,以便人工智能技術(shù)的發(fā)展更好地服務(wù)于社會(huì)發(fā)展。

      二、強(qiáng)人工智能相關(guān)的倫理道德思考

      未來(lái),人工智能的高階形式——強(qiáng)人工智能會(huì)走進(jìn)社會(huì)生產(chǎn)生活,因其終歸是“機(jī)械”,可能缺乏人類的情感和道德判斷力,使得一些倫理道德問題難以解決。因此,對(duì)于其道德和倫理問題的思考顯得尤為重要。

      (一)強(qiáng)人工智能是否應(yīng)遵循人類道德準(zhǔn)則

      傳統(tǒng)社會(huì)的道德調(diào)整人與人的關(guān)系,而現(xiàn)代社會(huì)將道德關(guān)懷對(duì)象擴(kuò)大到自然,是否應(yīng)該以人遵循的倫理準(zhǔn)則來(lái)要求強(qiáng)人工智能是思考的第一順位。若強(qiáng)人工智能出現(xiàn),在人與人工智能的關(guān)系上是否還應(yīng)堅(jiān)持人類中心主義。中國(guó)人民大學(xué)倫理學(xué)與道德建設(shè)研究中心曹剛指出:“人工智能是人造物,在存在論的意義上,人的本體地位不可動(dòng)搖,類似于ChatGPT這樣的強(qiáng)人工智能其過人之處是對(duì)人類知識(shí)的儲(chǔ)備,但究其本質(zhì)也僅僅是‘拼湊性的知識(shí)創(chuàng)造?!盵3]所以當(dāng)強(qiáng)人工智能更多展現(xiàn)出與人相似的特性時(shí),人類是否應(yīng)給予其相應(yīng)的“人權(quán)”成為強(qiáng)人工智能一大主要倫理問題。

      (二)強(qiáng)人工智能引發(fā)的隱私和安全問題

      未來(lái),許多強(qiáng)人工智能技術(shù)要使用大量的數(shù)據(jù)訓(xùn)練模型,以增強(qiáng)其智能和自主學(xué)習(xí)能力。而這些數(shù)據(jù)可能會(huì)包含許多敏感信息,如個(gè)人瀏覽史、購(gòu)買習(xí)慣、地理位置等,這些信息容易被黑客攻擊盜用從而造成個(gè)人隱私泄露。在安全層面,霍金、施密特等都曾發(fā)出警惕強(qiáng)人工智能威脅人類生存的警告。強(qiáng)人工智能技術(shù)容易被黑客利用來(lái)攻擊系統(tǒng),從而威脅國(guó)家、金融、醫(yī)療等安全領(lǐng)域。安全往往與責(zé)任息息相關(guān)。按照現(xiàn)有法律規(guī)則,因?yàn)橄到y(tǒng)自主性過強(qiáng),其開發(fā)者也難以預(yù)測(cè),包括黑箱的存在,很難解釋事故原因,所以未來(lái)可能會(huì)產(chǎn)生責(zé)任鴻溝。

      (三)強(qiáng)人工智能與非中立的算法

      許多人認(rèn)為不帶人類偏見和情緒的算法是一種客觀的數(shù)學(xué)表達(dá),不會(huì)產(chǎn)生歧視。但其實(shí)算法并非是中立的,它更多是一種不透明的算法黑箱[4]。算法決策很多時(shí)候是一種預(yù)測(cè),用過去的數(shù)據(jù)預(yù)測(cè)未來(lái)趨勢(shì),預(yù)測(cè)結(jié)果由算法模型和數(shù)據(jù)輸入決定。尤其在強(qiáng)人工智能背后,容易受程序員和資本等的操縱,當(dāng)系統(tǒng)被輸入偏見和歧視,便產(chǎn)生非公正的判斷和推論,從而造成對(duì)某些群體的標(biāo)簽化看法、污名化報(bào)道和不公平待遇。而算法歧視可能是具有自我學(xué)習(xí)能力的算法在交互過程中習(xí)得的,自身無(wú)法區(qū)別什么是歧視,什么不是歧視。例如一些圖像識(shí)別軟件將黑人錯(cuò)誤地標(biāo)記為“黑猩猩”或者“猿猴”。2016年3月,微軟公司在美國(guó)的Twitter上上線的聊天機(jī)器人Tay在與網(wǎng)民互動(dòng)的過程中,成為了一個(gè)集性別歧視、種族歧視等于一身的“不良少女”[5]??梢韵胂笕绻麑⑺惴☉?yīng)用在犯罪評(píng)估、信用貸款等關(guān)切人身利益的場(chǎng)合,產(chǎn)生的歧視必然損害個(gè)人權(quán)益,帶來(lái)巨大危害。

      (四)強(qiáng)人工智能倫理問題應(yīng)對(duì)策略

      王淑芹教授在中國(guó)社會(huì)科學(xué)倫理論壇上指出,深入探究人工智能技術(shù)的“是”與“應(yīng)該”、“道義”與“功利”、“自由”與“責(zé)任”的關(guān)系,是發(fā)揮好倫理學(xué)價(jià)值規(guī)范引領(lǐng)作用的理論基礎(chǔ)。涉及人機(jī)關(guān)系、隱私保護(hù)、智能機(jī)器人權(quán)利等方面,需要制定相應(yīng)的策略。

      1.完善相關(guān)法律法規(guī),規(guī)范強(qiáng)人工智能發(fā)展。建立符合實(shí)際和法律規(guī)范的法律法規(guī),明確智能機(jī)器人的責(zé)任、權(quán)利、隱私保護(hù)和審查制度等。比如當(dāng)聊天機(jī)器人在提供服務(wù)時(shí)出現(xiàn)錯(cuò)誤,產(chǎn)生不良后果時(shí),問責(zé)制度就變得尤為重要。涉及人工智能的道德責(zé)任與法律責(zé)任,開發(fā)者、用戶和平臺(tái)在內(nèi)的多方參與者需共同面對(duì)這一挑戰(zhàn)。相關(guān)制度的全面宣傳和落地,也將有利于社會(huì)對(duì)人工智能倫理問題的認(rèn)識(shí)和應(yīng)對(duì)。

      2.加強(qiáng)安全隱私保護(hù),提高技術(shù)透明度。加強(qiáng)對(duì)強(qiáng)人工智能算法和應(yīng)用技術(shù)的測(cè)試,建立完善的安全機(jī)制,確保機(jī)器人的可用性、安全性和機(jī)密性,嚴(yán)查安全漏洞、黑客攻擊和隱私泄露等問題,加強(qiáng)大數(shù)據(jù)加密、防護(hù)措施。通過透明度的提高加強(qiáng)對(duì)人工智能算法的解釋和預(yù)測(cè)能力,可以減少技術(shù)使用的風(fēng)險(xiǎn)。健康、穩(wěn)定、可控的強(qiáng)人工智能技術(shù)才能真正服務(wù)社會(huì),獲得大眾的信任。

      3.消除偏見與歧視,促進(jìn)人機(jī)合作。開發(fā)者應(yīng)盡可能確保訓(xùn)練數(shù)據(jù)的多樣性和公平性,減小機(jī)器人在提供服務(wù)時(shí)產(chǎn)生歧視或偏見的風(fēng)險(xiǎn)。在營(yíng)造平等的環(huán)境下,強(qiáng)人工智能可以與人合作,能取代人類完成一系列復(fù)雜危險(xiǎn)的任務(wù),提高社會(huì)效率,降低經(jīng)濟(jì)成本,但其使用應(yīng)在人類掌控之下。強(qiáng)人工智能機(jī)器人需自主提供人與技術(shù)相互協(xié)作的接口,允許用戶根據(jù)自己的偏好和需求使用。強(qiáng)化智能機(jī)器人與人類的互信與協(xié)作,才是強(qiáng)人工智能技術(shù)應(yīng)對(duì)倫理問題的有效途徑。

      三、強(qiáng)人工智能對(duì)社會(huì)經(jīng)濟(jì)的影響以及哲學(xué)思考

      未來(lái),強(qiáng)人工智能的出現(xiàn),會(huì)給經(jīng)濟(jì)發(fā)展帶來(lái)質(zhì)的飛躍,同時(shí),在此過程中生產(chǎn)力發(fā)展引發(fā)相應(yīng)的思辨哲學(xué)思考也會(huì)在社會(huì)范圍內(nèi)大幅增加。

      (一)強(qiáng)人工智能對(duì)社會(huì)經(jīng)濟(jì)的影響

      人工智能的不斷升級(jí)和應(yīng)用對(duì)社會(huì)經(jīng)濟(jì)帶來(lái)巨大的發(fā)展機(jī)遇的同時(shí),又引發(fā)了一系列問題和挑戰(zhàn)。在推動(dòng)其發(fā)展的同時(shí),需要認(rèn)真思考并采取積極措施應(yīng)對(duì)相關(guān)問題,以實(shí)現(xiàn)其對(duì)社會(huì)經(jīng)濟(jì)的可持續(xù)發(fā)展。

      1.勞動(dòng)力市場(chǎng)的變化。強(qiáng)人工智能的應(yīng)用會(huì)對(duì)勞動(dòng)力市場(chǎng)分工產(chǎn)生重要影響。一方面,其使得部分重復(fù)性高、技術(shù)含量低的勞動(dòng)力就業(yè)崗位減少,加劇失業(yè)問題。另一方面,隨其技術(shù)的應(yīng)用,社會(huì)對(duì)能夠了解并掌握強(qiáng)人工智能的人才需求增大,新的工作崗位和職業(yè)將不斷涌現(xiàn)。

      2.產(chǎn)業(yè)結(jié)構(gòu)的變革。強(qiáng)人工智能的應(yīng)用會(huì)使得產(chǎn)業(yè)生產(chǎn)效率提高,配置優(yōu)化,可以顯著促進(jìn)經(jīng)濟(jì)的增長(zhǎng),以及加速各行各業(yè)智能化和自動(dòng)化水平的提高。未來(lái)強(qiáng)人工智能的迅猛發(fā)展也會(huì)相應(yīng)地促進(jìn)產(chǎn)業(yè)結(jié)構(gòu)的變革。自動(dòng)駕駛、智能物流、人工智能醫(yī)療等產(chǎn)業(yè)的崛起,為經(jīng)濟(jì)增長(zhǎng)和社會(huì)發(fā)展帶來(lái)新動(dòng)力,傳統(tǒng)產(chǎn)業(yè)也將面臨數(shù)字化和智能化轉(zhuǎn)型的重大決策問題。

      (二)強(qiáng)人工智能與哲學(xué)思考

      強(qiáng)人工智能的發(fā)展會(huì)引發(fā)一系列的哲學(xué)思考,涵蓋了倫理、道德、人類與人工智能等多方面關(guān)系,如用戶的數(shù)據(jù)被污名化和濫用化的可能性以及給當(dāng)事人帶來(lái)的社會(huì)性傷害問題。除此之外,人工智能算法決策的責(zé)任認(rèn)定也是一個(gè)重要難題。人工智能決策過程極為復(fù)雜,即使開發(fā)者都無(wú)法完全解釋系統(tǒng)的決策依據(jù)。因此,當(dāng)人工智能系統(tǒng)犯錯(cuò)時(shí),如何追責(zé)和認(rèn)定責(zé)任成為一個(gè)困難的問題。

      哲學(xué)終極三問“我是誰(shuí)”“我從哪里來(lái)”“我到哪里去”至今無(wú)法得出一個(gè)明確的結(jié)論。但人們?cè)诨卮疬@三個(gè)問題的時(shí)候,大腦的思考涉及事物的本質(zhì)和定義,事物的原因、過程和機(jī)制,以及事物的目的、意義和價(jià)值等諸多哲學(xué)領(lǐng)域。但對(duì)于人工智能而言,雖然其有了自主意識(shí),但可能仍缺乏對(duì)應(yīng)的情緒感知和管理,導(dǎo)致其問題的回答可能依賴于訓(xùn)練階段學(xué)習(xí)的數(shù)據(jù)和算法,這也就意味著,強(qiáng)人工智能無(wú)法超脫于數(shù)據(jù)之外,缺乏理性的反思和直覺的情感體驗(yàn)。

      (三)研究經(jīng)濟(jì)和哲學(xué)問題的意義

      強(qiáng)人工智能的哲學(xué)思考和社會(huì)接受度的研究不僅有助于我們深入理解人工智能對(duì)經(jīng)濟(jì)和社會(huì)的影響,還可以為政策制定者提供指導(dǎo),幫助構(gòu)建智能經(jīng)濟(jì)生態(tài),實(shí)現(xiàn)可持續(xù)發(fā)展和社會(huì)公正。通過研究強(qiáng)人工智能的哲學(xué)問題,我們可以探索如何引導(dǎo)資本與技術(shù)的協(xié)調(diào)發(fā)展,促進(jìn)人機(jī)協(xié)同創(chuàng)新。在推動(dòng)強(qiáng)人工智能發(fā)展的同時(shí),我們需要認(rèn)真思考這些問題,并及時(shí)制定和調(diào)整相應(yīng)的政策,以確保強(qiáng)人工智能發(fā)展在倫理道德和社會(huì)發(fā)展等方面的可行性。

      未來(lái),隨著人工智能技術(shù)的發(fā)展,人們對(duì)強(qiáng)人工智能的到來(lái)喜憂參半。根據(jù)歐盟委員會(huì)發(fā)布人工智能倫理準(zhǔn)則七個(gè)方面,“可信賴人工智能”值得借鑒,但在具體操作的問題上,更應(yīng)注重底線思維,人類需要面向未來(lái)做出積極思考與探索[6]。

      四、結(jié)束語(yǔ)

      強(qiáng)人工智能的社會(huì)接納程度受多種因素的影響,是一個(gè)復(fù)雜的過程。首先,對(duì)公眾的教育和培訓(xùn)程度,決定了公眾對(duì)強(qiáng)人工智能的認(rèn)知和態(tài)度。其次,法律體系的完善程度決定著其發(fā)展涉及的眾多道德法律問題是否可以被解決,從而決定公眾對(duì)強(qiáng)人工智能的信任度。此外,不同文化和道德價(jià)值觀對(duì)于強(qiáng)人工智能的社會(huì)意識(shí)也會(huì)產(chǎn)生深遠(yuǎn)影響。未來(lái),強(qiáng)人工智能仍會(huì)不斷發(fā)展,給經(jīng)濟(jì)社會(huì)帶來(lái)更深遠(yuǎn)的影響。通過加強(qiáng)公眾教育程度,完善立法體系,促進(jìn)不同文化交流并堅(jiān)持可持續(xù)發(fā)展,我們可以更好地引導(dǎo)和推動(dòng)人工智能技術(shù)的發(fā)展,更好地為社會(huì)經(jīng)濟(jì)的可持續(xù)發(fā)展和人類福祉作出貢獻(xiàn)。

      參考文獻(xiàn):

      [1]? ?朱凌珂.賦予強(qiáng)人工智能法律主體地位的路徑與限度[J].廣東社會(huì)科學(xué),2021(5):240-253.

      [2]? ?丁佳偉.論人工智能的法律主體地位[D].桂林:廣西師范大學(xué),2021.

      [3]? ?李俊平.人工智能技術(shù)的倫理問題及對(duì)策研究[D].武漢:武漢理工大學(xué),2013.

      [4]? ?陳立鵬.人工智能引發(fā)的科學(xué)技術(shù)倫理問題[J].文學(xué)教育(下),2012(8).

      [5]? ?李美琪.人工智能引發(fā)的科學(xué)技術(shù)倫理問題[J].山西青年,2016(8).

      [6]? ?伍元吉,胡濱.人工智能的倫理挑戰(zhàn)探析[J].江西電力職業(yè)技術(shù)學(xué)院學(xué)報(bào),2020,33(3):166-168.

      [責(zé)任編輯? ?白? ?雪]

      猜你喜歡
      倫理道德
      企業(yè)倫理道德視角下的安全生產(chǎn)
      城鎮(zhèn)化進(jìn)程中新的倫理道德文化的遷移與重塑
      決策探索(2019年8期)2019-05-16 13:57:08
      探討圖像時(shí)代視覺傳播的“沖擊力”
      卷宗(2016年10期)2017-01-21 17:23:08
      基于倫理道德之爭(zhēng)下的大學(xué)生自殺問題分析
      東方教育(2016年12期)2017-01-12 19:48:59
      《莎樂美》中的倫理道德觀
      倫理道德視角下的醫(yī)患關(guān)系研究
      商(2016年32期)2016-11-24 14:54:40
      二郎神形象轉(zhuǎn)變之我見
      人間(2016年28期)2016-11-10 21:37:12
      突發(fā)新聞采訪中新聞?dòng)浾叩穆殬I(yè)道德和倫理道德平衡
      新聞傳播(2016年18期)2016-07-19 10:12:06
      對(duì)新聞攝影倫理道德的研究
      新聞傳播(2016年2期)2016-07-12 10:52:24
      傳統(tǒng)倫理道德現(xiàn)實(shí)價(jià)值研究
      人民論壇(2016年2期)2016-02-24 13:07:58
      开阳县| 白城市| 武汉市| 沾化县| 论坛| 瑞丽市| 虎林市| 博罗县| 木兰县| 云梦县| 洛阳市| 高碑店市| 保康县| 宁强县| 朝阳市| 额敏县| 应用必备| 甘南县| 丰原市| 保德县| 宿松县| 洮南市| 安多县| 抚宁县| 广平县| 绥江县| 高淳县| 桦甸市| 平顺县| 靖远县| 巧家县| 凯里市| 务川| 遂川县| 金塔县| 铜鼓县| 南城县| 安义县| 福贡县| 正阳县| 谢通门县|