在线观看av毛片亚洲_伊人久久大香线蕉成人综合网_一级片黄色视频播放_日韩免费86av网址_亚洲av理论在线电影网_一区二区国产免费高清在线观看视频_亚洲国产精品久久99人人更爽_精品少妇人妻久久免费

首頁 > 文章中心 > 語音視頻

語音視頻

前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇語音視頻范文,相信會為您的寫作帶來幫助,發(fā)現(xiàn)更多的寫作思路和靈感。

語音視頻

語音視頻范文第1篇

文章結(jié)合我校大學(xué)英語網(wǎng)絡(luò)教學(xué)改革已進(jìn)行到中期階段的背景,依據(jù)相關(guān)的外語習(xí)得及教學(xué)理論,結(jié)合課題的研究內(nèi)容與目標(biāo),對我校正在開發(fā)的大學(xué)英語音視頻資源庫進(jìn)行詳細(xì)論述及深入探討。以資源的準(zhǔn)確性、實(shí)用性、完整性、可擴(kuò)展性為標(biāo)準(zhǔn),對教學(xué)資源科學(xué)分類整合,構(gòu)建音視頻資源庫平臺,服務(wù)于學(xué)生的自主學(xué)習(xí),提升學(xué)生英語學(xué)習(xí)的興趣與效率,強(qiáng)化他們的自主學(xué)習(xí)能力。并對后續(xù)存在的問題進(jìn)行了探究,提出可行的解決方案。

關(guān)鍵詞

教學(xué)改革;自主學(xué)習(xí);資源庫;開發(fā);應(yīng)用

0引言

我校在過去10年推行了大學(xué)英語網(wǎng)絡(luò)化教學(xué)改革,投入數(shù)百萬元建成了13個網(wǎng)絡(luò)型語音室,構(gòu)建了完善的英語自主學(xué)習(xí)環(huán)境,硬件設(shè)施在省內(nèi)遙遙領(lǐng)先,但在軟件資源建設(shè)及后續(xù)投入上卻乏力。僅創(chuàng)建了網(wǎng)絡(luò)英語學(xué)習(xí)平臺主頁,鏈接了外教社的新理念學(xué)習(xí)平臺,但網(wǎng)站里內(nèi)容不夠充實(shí),大多是一些外鏈資源,缺乏實(shí)用性和自主性,對學(xué)生沒有吸引力。為了構(gòu)建完善的大學(xué)英語自主學(xué)習(xí)與教學(xué)網(wǎng)絡(luò)資源庫,進(jìn)一步推進(jìn)大學(xué)英語教學(xué)改革進(jìn)程,課題組成員擬用兩年時間完成大學(xué)英語音視頻資源庫的開發(fā)和建設(shè),根據(jù)師生應(yīng)用中的反饋意見,積極改進(jìn)各項(xiàng)功能,完善資源庫。

1資源庫開發(fā)的理論基礎(chǔ)

自主學(xué)習(xí)是以學(xué)生作為學(xué)習(xí)的主體,通過學(xué)生獨(dú)立地分析、探索、實(shí)踐、質(zhì)疑、創(chuàng)造等方法來實(shí)現(xiàn)學(xué)習(xí)目標(biāo),培養(yǎng)學(xué)生搜集和處理信息的能力、獲取新知識的能力、分析和解決問題的能力以及交流與合作的能力?;谶@一觀點(diǎn),筆者認(rèn)為大學(xué)英語的自主學(xué)習(xí)應(yīng)是給予每個學(xué)習(xí)者理想的外語學(xué)習(xí)環(huán)境,通過教師的引導(dǎo),充分調(diào)動每個學(xué)習(xí)者的主動性,最終達(dá)成英語學(xué)習(xí)的目標(biāo)。而理想的外語學(xué)習(xí)環(huán)境,就目前我校大學(xué)英語教學(xué)改革的現(xiàn)狀,首要任務(wù)就是完善自主學(xué)習(xí)中心,開發(fā)建設(shè)大學(xué)英語音視頻資源庫。美國著名語言教育家克拉申(Krashen)認(rèn)為:只有當(dāng)習(xí)得者接觸到“可理解的語言輸入”(comprehensiveinput),即略高于他現(xiàn)有語言技能水平的第二語言輸入,而他又能把注意力集中于對意義或?qū)π畔⒌睦斫舛皇菍π问降睦斫鈺r,才能產(chǎn)生習(xí)得,理想的語言輸入應(yīng)具備可理解性、有趣又相關(guān)、足夠的輸入量等特點(diǎn)。大學(xué)英語音視頻資源庫的建立正是為了最大限度地為我校學(xué)生提供英語語言學(xué)習(xí)材料和實(shí)踐機(jī)會,接觸真正的西方社會與文化,使他們能廣泛而有效地獲取英語語言知識、從而提高語言習(xí)得能力,真正實(shí)現(xiàn)“有效地輸出”。

2資源庫開發(fā)的重要性

2.1發(fā)展自主學(xué)習(xí)中心的需要

目前國內(nèi)各高校自主學(xué)習(xí)平臺主要由兩種路徑形成。一是從出版社直接購買的學(xué)習(xí)平臺,另一個則是各高校自建的資源庫。前者可以通過學(xué)校資金和人力的投入,短期內(nèi)則可以投入使用,形成效果。但校本音視頻資源庫的建設(shè)是一個長期的過程,需要課題組的持續(xù)努力。通過建設(shè)有特色的自主學(xué)習(xí)資源庫,才能為學(xué)生的自主學(xué)習(xí)創(chuàng)造更好的條件,適應(yīng)網(wǎng)絡(luò)化、個性化英語教學(xué)的需要。

2.2有利于提升英語學(xué)習(xí)興趣、提高學(xué)習(xí)效率

外語教學(xué)的最終目的是培養(yǎng)應(yīng)用語言進(jìn)行有效交流的能力。英語音視頻資源輔助教學(xué)及應(yīng)用于自主學(xué)習(xí),不僅有利于語言習(xí)得的發(fā)展,而且為學(xué)生提供大量運(yùn)用語言的機(jī)會,實(shí)現(xiàn)跨文化交流,音視頻是了解西方文化的最好媒介。

2.3豐富教學(xué)方式,實(shí)現(xiàn)教學(xué)創(chuàng)新,提升教師的教育技術(shù)水平

互聯(lián)網(wǎng)+風(fēng)潮要求我們教師既要更新教學(xué)觀念,又要在課堂教學(xué)模式、教學(xué)內(nèi)容上進(jìn)行創(chuàng)新。建設(shè)英語音視頻資源庫過程中可以充分調(diào)動老師們的積極性,形成良好的教學(xué)創(chuàng)新氛圍;通過自學(xué)等途徑提升了現(xiàn)代教育技術(shù)水平,豐富了教學(xué)方式。

3建設(shè)大學(xué)英語音視頻資源庫的方法與途徑

資源庫的建設(shè)管理是一項(xiàng)持久而龐大的工程,需要課題組成員通過各種渠道搜集各類資源,進(jìn)行分類整理,同時需要不斷提升現(xiàn)代教育技術(shù)水平。在學(xué)院領(lǐng)導(dǎo)及相關(guān)部門的大力支持下,贛南師范大學(xué)的英語音視頻資源庫已基本建設(shè)完成,并投入使用一年多,在師生中產(chǎn)生了非常好的反響。我們主要通過以下方法與途徑進(jìn)行資源庫的開發(fā)與建設(shè):(1)數(shù)字化各類英語教材。各類教材是英語教學(xué)的主要教學(xué)資源,它們也是英語學(xué)習(xí)者的首選材料,具備較好的權(quán)威性及廣泛性。數(shù)字化英語教材,就是把各類英語教材附帶的光盤、磁帶轉(zhuǎn)換成能在計算機(jī)上保存的音視頻文件,存貯在服務(wù)器上,從而實(shí)現(xiàn)網(wǎng)絡(luò)化共享。在數(shù)字這些素材時,既要考慮到教材的完整性,也要充分考慮到學(xué)生自主學(xué)習(xí)時的易用性,根據(jù)用途及層次對聽力材料進(jìn)行分層管理,文件命名均采用見名知義的命名方法,使師生在調(diào)用時簡單易懂,實(shí)現(xiàn)快捷訪問、高效利用。(2)自主開發(fā)點(diǎn)播系統(tǒng),入庫優(yōu)質(zhì)資源。視頻資源比音頻資源更加直觀、形象,是學(xué)生首選的學(xué)習(xí)素材。在我?,F(xiàn)代外語教育技術(shù)應(yīng)用與研究中心的指導(dǎo)幫助下,我們自主設(shè)計開發(fā)了英語視頻點(diǎn)播系統(tǒng),內(nèi)容涵蓋:①各種英語視頻課程:如學(xué)校自建的精品視頻公開課和師生的英語教學(xué)競賽視頻,全球知名大學(xué)的視頻公開課。②流行英語學(xué)習(xí)課程:如“走遍美國”、“空中英語教室”等。③主流英語媒體節(jié)目,如中央電視臺英語頻道,ABC美國廣播公司,CNN廣播公司等節(jié)目源。④英語演講視頻:如CCTV杯英語風(fēng)采大賽,TED演講集、經(jīng)典演講視頻等。⑤影視資源:我們搜集整理了各類影視經(jīng)典資源,包括奧斯卡歷年最佳影片、IMDB最佳影片top250等優(yōu)質(zhì)影視資源。從實(shí)際應(yīng)用情況來看,該資源是學(xué)生點(diǎn)擊率最高的版塊,可見其受歡迎程度。(3)購買適合教學(xué)與自主學(xué)習(xí)的音視頻資源目前教育資源市場上針對英語學(xué)習(xí)方面的資源庫是越來越多,為了與硬件設(shè)設(shè)相配套,完善我校英語網(wǎng)絡(luò)教學(xué)與自主學(xué)習(xí)環(huán)境,我校近些年加大了對軟件建設(shè)的投入,購買了一些重點(diǎn)資源庫,涵蓋英語學(xué)習(xí)、考試及出國留學(xué)等音視頻資源,主要包括外語自主學(xué)習(xí)資源庫、新東方多媒體學(xué)習(xí)庫、環(huán)球英語網(wǎng)絡(luò)、Fif外語學(xué)習(xí)資源庫和部分試用資源庫,極大地豐富了英語教學(xué)與自主學(xué)習(xí)資源,完善了英語網(wǎng)絡(luò)學(xué)習(xí)環(huán)境。(4)制作音視頻資源導(dǎo)航頁,從互聯(lián)網(wǎng)上下載相關(guān)打包資源?;ヂ?lián)網(wǎng)是英語學(xué)習(xí)、教學(xué)的寶藏,里面有非常豐富、完整的各類英語音視頻學(xué)習(xí)、教學(xué)資源等待我們?nèi)ネ诰蛘?,如喬丹NBA經(jīng)典比賽視頻合輯、經(jīng)典足球比賽欣賞、倫敦奧運(yùn)會開幕式、老鷹樂隊澳大利亞告別演唱會等經(jīng)典高清英語資源,由于視頻格式和播放器的局限性,我們通過迅雷等下載工具直接打包下載到服務(wù)器上,然后再制作資源導(dǎo)航頁,讓學(xué)生通過下載到本地的方式進(jìn)行欣賞,這樣既減輕了服務(wù)器的壓力,也使學(xué)生有更多時間去慢慢領(lǐng)會其中所包含的文化價值意義。

4資源庫的應(yīng)用

有了英語音視頻資源庫,教師可以直接調(diào)用資源庫中的教學(xué)資料進(jìn)行課堂教學(xué),有了英語音視頻資源庫和其它配套的學(xué)習(xí)系統(tǒng),教師可以根據(jù)不同專業(yè)學(xué)生特點(diǎn),采取靈活多樣的教學(xué),選擇與其專業(yè)相符的教學(xué)內(nèi)容,實(shí)行因材施教,把專業(yè)學(xué)習(xí)與英語學(xué)習(xí)有機(jī)結(jié)合起來,實(shí)現(xiàn)共贏?;谶@些豐富、完整的數(shù)字化資源,學(xué)生們可以根據(jù)自己興趣愛好和專業(yè)特點(diǎn),在網(wǎng)絡(luò)型語音室或?qū)嬍以诰€自主學(xué)習(xí),選擇合適的學(xué)習(xí)內(nèi)容,按照自己的進(jìn)度安排學(xué)習(xí),實(shí)現(xiàn)高效利用時間,最終使學(xué)生具備較強(qiáng)的自主學(xué)習(xí)能力,養(yǎng)成良好的自主學(xué)習(xí)習(xí)慣。

5結(jié)束語

通過教學(xué)實(shí)踐證明,有了基于本校實(shí)際的大學(xué)英語音視頻資源庫,給老師與學(xué)生帶來非常大的學(xué)習(xí)能動性。教師可以充分利用起網(wǎng)絡(luò)語音室的各項(xiàng)功能,進(jìn)行教學(xué)改革創(chuàng)新,施行因生、因材施教,提高課堂教學(xué)效率,最大化地轉(zhuǎn)化學(xué)習(xí)效果。同時,基于校園網(wǎng)的學(xué)生在線自主學(xué)習(xí),通過選擇與自己水平、興趣相當(dāng)?shù)膶W(xué)習(xí)素材,真正實(shí)現(xiàn)自己學(xué)習(xí)、主動學(xué)習(xí),充分激發(fā)了學(xué)生的求知欲望,打破課堂局限,通過網(wǎng)絡(luò)互動有利地建設(shè)了第二課堂,使學(xué)習(xí)延伸到課外生活中去,從而使學(xué)生真正具備較強(qiáng)的自主學(xué)習(xí)能力,實(shí)現(xiàn)培養(yǎng)目標(biāo)。但我們的研究也存在一些需要改進(jìn)的問題。比如隨著智能手機(jī)在學(xué)生中的普及,需要我們將資源進(jìn)行轉(zhuǎn)換,以適應(yīng)安卓、蘋果手機(jī)上的使用,這對我們的技術(shù)提出了新的挑戰(zhàn);另外,老師和學(xué)生才是資源的真正使用者,對如何選材、使用效果及如何改進(jìn)等方面最有發(fā)言權(quán),課題組應(yīng)及時與他們進(jìn)行溝通、問卷調(diào)查,進(jìn)一步完善資源庫,實(shí)現(xiàn)更廣的社會傳播價值。

作者:賴藝 劉忠平 單位:贛南師范大學(xué)外國語學(xué)院

參考文獻(xiàn)

[2]零月秀,李波.大學(xué)英語聽說教學(xué)數(shù)字化資源庫的建設(shè)[J].通化師范學(xué)院學(xué)報,2004.25(1):106-108.

[3]莫錦國.大學(xué)英語自主式教學(xué)資源庫開發(fā)初探[J].外語電化教學(xué),2005(102):36-39.

[4]教育部高等教育司.大學(xué)英語課程教學(xué)要求[M].北京:清華大學(xué)出版社,2007:18-25.

[5]門斌.大學(xué)英語多媒體網(wǎng)絡(luò)教學(xué)資源庫的建設(shè)[J].電化教育研究,2009(7):68-72.

[6]甘玲玲.大學(xué)英語自主學(xué)習(xí):校本網(wǎng)絡(luò)資源庫的開發(fā)[J].百色學(xué)院學(xué)報,2009.22(6):104-107.

[7]海霞.新疆大學(xué)英語教學(xué)網(wǎng)絡(luò)資源庫建設(shè)調(diào)查報告[J].新疆廣播電視大學(xué)學(xué)報,2011(3):54-56.

[8]郭繼榮,戴煒棟.大學(xué)生英語自主學(xué)習(xí)評價實(shí)證研究[J].外語界,2011(6):79-87:

語音視頻范文第2篇

關(guān)鍵詞:H323;MCU;混合器;視頻會議系統(tǒng)

1 引言

會議是人類社會政治經(jīng)濟(jì)生活中不可缺少的一部分。隨著ITU制定出第一個H.320標(biāo)準(zhǔn)和H.323標(biāo)準(zhǔn),視頻會議獲得了長足的發(fā)展。視頻會議作為一種先進(jìn)的多媒體通信手段,已逐步被眾多政府部門和跨地區(qū)企事業(yè)單位所接受和采用[1]。然而相對于Internet有限的帶寬,圖像通信所需要的帶寬太大,視頻會議無法承載原始視頻的多路通信。因此,多點(diǎn)控制單元(MCU)對于音視頻的多路通信起著重要的作用[2]。文章主要針對視頻會議中的主要部分MCU,研究分析H.323視頻會議中如何利用有限的帶寬實(shí)現(xiàn)音視頻的混合于傳輸。

2 H323協(xié)議簡介

H.323協(xié)議是ITU第15研究組SG-15于1996年通過的在不保證服務(wù)質(zhì)量(QoS)的分組交換網(wǎng)絡(luò)(PBN:Packet based networks)上傳遞信息的多媒體通信協(xié)議。從整體上來說,H.323是一個框架性協(xié)議,它涉及到終端設(shè)備、視頻、音頻和數(shù)據(jù)傳輸、通信控制、網(wǎng)絡(luò)接口方面的內(nèi)容,還包括了組成多點(diǎn)會議的多點(diǎn)控制單元(MCU)、多點(diǎn)控制器(MC)、多點(diǎn)處理器(MP)、網(wǎng)關(guān)以及關(guān)守等。H.323為基于網(wǎng)絡(luò)的通信系統(tǒng)定義了四個主要的組件:終端(Terminal)、網(wǎng)關(guān)(Gateway)、網(wǎng)守(Gatekeeper)、多點(diǎn)控制單元(MCU)。所有終端都必須支持語音通信,視頻和數(shù)據(jù)通信可選.H.323規(guī)定了不同的音頻、視頻或數(shù)據(jù)終端協(xié)同工作所需的操作模式[3]。H.323終端的組成中。在發(fā)送端,從輸入設(shè)備獲取的視頻和音頻信號,經(jīng)編碼器壓縮編碼后,按照協(xié)議規(guī)定的格式打包,通過網(wǎng)絡(luò)發(fā)送出去.在接收端,來自網(wǎng)絡(luò)的數(shù)據(jù)包首先被解包,獲得的視頻、音頻壓縮數(shù)據(jù)經(jīng)解碼后送入輸出設(shè)備,用戶數(shù)據(jù)和控制數(shù)據(jù)也得到了相應(yīng)的處理。

3 混合器的功能分析

在視頻會議過程中,每個終端以點(diǎn)對點(diǎn)方式在控制信道上與MCU信令通信,并在用戶數(shù)據(jù)包協(xié)議(UDP:User Datagram Protocol)信道上與之進(jìn)行音頻,視頻和數(shù)據(jù)通信。在此過程中,MCU融合了多點(diǎn)控制器(MC)和多點(diǎn)處理器(MP)兩個功能。MCU可以使用分布式多點(diǎn)音頻和集中式多點(diǎn)視頻。在此模式中,MCU對音視頻的操作是不同的,例如當(dāng)音頻信號來到時,MCP將之從所屬音頻通道直接拷貝到其他每個會議成員的音頻通道中;而當(dāng)視頻信號來到時,MCU先將其存入緩存,等所有成員的幀數(shù)據(jù)全部存入緩存后,分別發(fā)送至每個會議終端,從而達(dá)到視頻混合的目的[6]。

3.1 MCU對視頻的標(biāo)識

在對視頻的轉(zhuǎn)發(fā)過程中對視頻的標(biāo)識顯得特別重要。當(dāng)多路視頻組合為一路發(fā)送往各終端時,需要將各視頻與終端聯(lián)系起來,從而使每個終端都能清楚它們的對應(yīng)關(guān)系。另外為了滿足視頻會議中各成員之間的單獨(dú)交互,在終端得到會議成員列表也是必不可少的。

3.2 MCU對多會議室的支持

當(dāng)MCU中包含多個會議室時,情況有所復(fù)雜。我們?yōu)槊恳粋€會議室分配一個“房間”(room);由于不在同一會議室,不同房間中的成員不能接收到其他房間中音視頻信息,這樣MCU就需要為每個房間增加一個標(biāo)識,以便區(qū)別各會議室的音視頻信息。

4 混合器的設(shè)計實(shí)現(xiàn)

Openh323封裝了視頻會議通信的整個過程,利用它暴露的接口類,我們可以很容易地實(shí)現(xiàn)MCU的混合器功能。

4.1 H323終端

H323EndPoint類管理H323終端(endpoint),一個終端可能有0個或者多個偵聽線程來負(fù)責(zé)關(guān)于呼入的連接,終端也可能有0或者多個通過MakeCall()初始化呼出的連接,一旦一個連接存在,該連接就被此類的實(shí)例管理。此類最主要的內(nèi)容是包含終端應(yīng)用程序的能力,也就是終端可以處理的協(xié)議和多媒體數(shù)字信號編解碼器(codec),大多數(shù)應(yīng)用程序通常都會創(chuàng)建一個H323Endpoint類的派生類,也會創(chuàng)建一個H323Connection類的派生類并重載CreateConnection()函數(shù)。

4.2 音頻轉(zhuǎn)發(fā)的實(shí)現(xiàn)

音頻信號的轉(zhuǎn)發(fā)有些復(fù)雜,因?yàn)樗婕暗交祛l,當(dāng)有終端發(fā)送的音頻到達(dá)MCU時,MCU執(zhí)行以下操作:

(1) 調(diào)用相應(yīng)的解碼函數(shù)對通道中接受的音頻信號進(jìn)行解碼,并將解碼后的音頻信號寫入IncomingAudio channel通道。

(2) IncomingAudio函數(shù)將數(shù)據(jù)發(fā)送至緩存,并將數(shù)據(jù)從緩存依次復(fù)制到其他所有通道的緩存中。這樣,MCU完成了對接收音頻的處理.,隨后MCU開始發(fā)送音頻信號。

(3) 依次對所有與MCU連接的終端調(diào)用OutgoingAudio函數(shù)將所有連接(不包括即將發(fā)送音頻的連接)緩存中的音頻信號進(jìn)行混頻。

(4) 音頻編碼器將混頻后的信號經(jīng)由與MCU連接的通道發(fā)送往各終端,完成音頻的轉(zhuǎn)發(fā)功能。

4.3 視頻轉(zhuǎn)發(fā)的實(shí)現(xiàn)

由于不用進(jìn)行過多處理,視頻信號的轉(zhuǎn)發(fā)相對簡單。MCU中有一個緩存VideoBuffer專門用于視頻轉(zhuǎn)發(fā),當(dāng)視頻信號到達(dá)時,視頻解碼器(Video Codec)對之進(jìn)行解碼并將結(jié)果視頻寫入IncomingVideo channel通道,MCU調(diào)用WriteVideo將解碼后的視頻幀寫入緩存的指定位置(例如左上角);一旦所有視頻幀都被寫入緩存, MCU便調(diào)用ReadVideo將緩存中的組合視頻幀(一般是分塊)寫入各通道,最后由編碼器編碼后發(fā)送至各終端。另外,由于視頻大小的限制,原始視頻需要經(jīng)過抽樣。

4.4 會議成員列表

Openh323中沒有給出相關(guān)的功能接口,因此這項(xiàng)功能需要我們來擴(kuò)展,終端要從MCU得到會議成員列表,即通過H323EndPoint向每個終端發(fā)送包含成員列表的文本消息。當(dāng)有終端與MCU建立連接時,MCU會將成員列表以字符串的形式封裝,并發(fā)送至每個終端;終端相應(yīng)地增加消息處理函數(shù)來接收MCU方發(fā)送來的成員列表,并在界面中顯示。

4.5 對多會議室的支持

當(dāng)用戶與MCU建立連接時,需要為連接指定一個會議標(biāo)識(默認(rèn)為room1)。這樣,在MCU中便存在多個房間,當(dāng)會議開始后,每一個終端的音視頻到達(dá)MCU后都會根據(jù)其終端所屬的會議標(biāo)識進(jìn)行分別處理。例如,當(dāng)room1房間的成員有視頻信號到達(dá)MCU時,MCU先判斷其所屬會議標(biāo)識,這里是room1;然后便將其視頻按前面所述的方法存入room1的視頻緩存中。最后,當(dāng)room1所有成員的視頻信號都到達(dá)后,再將其緩存中的視頻數(shù)據(jù)分別發(fā)送至room1的各成員終端,以完成room1會議的視頻轉(zhuǎn)發(fā)過程。對于其他的房間也執(zhí)行相同的處理,而且各房間之間的音視頻轉(zhuǎn)發(fā)互不干擾。

5 測試實(shí)驗(yàn)與結(jié)果分析

為了驗(yàn)證文章提出的設(shè)計方案的可行性和有效性,基于Openh323 Library實(shí)現(xiàn)了一套H323視頻會議的原型系統(tǒng)。以下,對我們實(shí)現(xiàn)的視頻會議原型系統(tǒng)進(jìn)行測試實(shí)驗(yàn)。

本實(shí)驗(yàn)的運(yùn)行環(huán)境為實(shí)驗(yàn)室局域網(wǎng),測試對象為基于IP的網(wǎng)絡(luò)視頻會議系統(tǒng),實(shí)驗(yàn)設(shè)備包括:局域網(wǎng),多臺電腦(帶視頻頭和音頻采集器)。

實(shí)驗(yàn)結(jié)果:當(dāng)用戶Terminal1加入會議室room1時,MCU會立即刷新room1的成員列表,并將Terminal1的音視頻進(jìn)行處理后連同其他音視頻按照既定方法發(fā)送至各終端;Terminal1的加入對room2中的各成員終端沒有任何影響,而且音視頻的轉(zhuǎn)發(fā)照常進(jìn)行。

6 結(jié)束語

H323協(xié)議使基于IP的網(wǎng)絡(luò)視頻會議成為可能,但帶寬的限制使多媒體的傳輸成為會議的瓶頸。文章介紹了一種在Openh323基礎(chǔ)上,通過MCU將音視頻混合并轉(zhuǎn)發(fā)的方法,使音視頻能夠在基于IP的網(wǎng)絡(luò)上正常傳輸,成功實(shí)現(xiàn)了多媒體會議的視頻控制與傳輸。但仍有問題尚待進(jìn)一步解決,由于MCU方將視頻混合后發(fā)送網(wǎng)各端點(diǎn),這就造成了視頻質(zhì)量的下降,因此有必要對視頻進(jìn)行插值放大或幀速率上轉(zhuǎn)換等后處理。

參考文獻(xiàn)

[1]Runsheng Wang, Xiaorui Hu. “VoIP Development in China,” Computer[J].2004,37(9): 30~37.

[2]黃東軍, 陳松喬. 基于源根組播的多點(diǎn)視頻會議系統(tǒng)模型及其實(shí)現(xiàn)[J].電子學(xué)報, 2005,33(1): 47~51.

[3]張明德,王永東. 視頻會議系統(tǒng)原理與應(yīng)用[M]. 北京:希望電子出版社,1999.

[4]BUR GOODE.Voice Over Internet Protocol (VoIP). Proceedings of The IEEE[J],2002, 90(9): 1495~1517

[5]蔡勝, 蘇應(yīng)飚. VoIP 網(wǎng)關(guān)中H323 協(xié)議棧的實(shí)現(xiàn). 計算機(jī)與現(xiàn)代化 [J],2002,3: 19~21

語音視頻范文第3篇

    在本系統(tǒng)中總部指揮中心的核心配置是1臺音視頻綜合通信主機(jī),該主機(jī)集語音處理單元、視頻處理單元和調(diào)度控制單元構(gòu)成的綜合型交換處理設(shè)備,即音視頻綜合通信主機(jī);同時,該主機(jī)的語音處理單元、視頻處理單元及控制單元均支持?jǐn)U展功能,是完全能夠滿足總部指揮中心對多個下級語音調(diào)度和內(nèi)部通信的要求??偛恐笓]中心配置可供調(diào)度人員切換和控制的調(diào)度席,供指揮人員指揮的指揮席;調(diào)度席為指揮席提供中心到各分站調(diào)度語音、視頻(包括切換及控制)的鏈路建立。同時,調(diào)度席可以電話、語音的形式,接收指揮席的指令要求,對前端的記者進(jìn)行語音調(diào)度和視頻監(jiān)視。指揮席與前方分站建立通信連接后,實(shí)現(xiàn)雙向語音通話,雙向視頻,以及對前端監(jiān)控單元進(jìn)行控制。整個系統(tǒng)支持多分站之間的連接,建立連接后中心、多個分站之間可以實(shí)現(xiàn)電話會議、視頻會議等業(yè)務(wù),便于中心調(diào)度指令。

    現(xiàn)場指揮中心設(shè)計

    現(xiàn)場指揮中心的核心配置是1臺音視頻綜合通信分機(jī),該分機(jī)集語音處理單元、視頻處理單元和調(diào)度控制單元構(gòu)成的綜合型交換處理設(shè)備,即音視頻綜合通信分機(jī);同時,該分機(jī)的語音處理單元、視頻處理單元及控制單元均支持?jǐn)U展功能,完全能夠滿足現(xiàn)場指揮中心對前端信息的接入和調(diào)度?,F(xiàn)場指揮中心音視頻綜合通信分機(jī)針對本地現(xiàn)場提供多路有、無線通話接口;并通過地面的IP網(wǎng)絡(luò)或衛(wèi)星鏈路實(shí)現(xiàn)與總部指揮中心、其他分現(xiàn)場指揮中心的通話互聯(lián)?,F(xiàn)場指揮中心音視頻綜合通信分機(jī)可通過有、無線調(diào)度系統(tǒng)對現(xiàn)場采集人員提供多路連接方式,每個無線終端設(shè)備之間可實(shí)現(xiàn)點(diǎn)對點(diǎn)通信,并支持功能擴(kuò)展;同時,總部指揮中心通過現(xiàn)場指揮中心中繼后可直接對前端記者進(jìn)行語音調(diào)度,所有操作均實(shí)時完成。音視頻綜合通信分機(jī)提供多路串口控制,通過地面IP網(wǎng)絡(luò)或衛(wèi)星鏈路將控制信號傳到調(diào)度終端,總部指揮中心就可直接對前端設(shè)備進(jìn)行遠(yuǎn)程控制。音視頻綜合通信分機(jī)提供多路視頻的處理能力,可為現(xiàn)場指揮中心提供現(xiàn)場多路視頻接入,至少提供1路的視頻編解碼能力,為總部指揮中心提供現(xiàn)場的視頻監(jiān)控,同時,支持視頻接入的擴(kuò)展。

語音視頻范文第4篇

關(guān)鍵詞:流媒體;音頻;實(shí)時傳輸;自適應(yīng);嵌入式;Android

中圖分類號:TP309文獻(xiàn)標(biāo)識碼:A文章編號:1009-3044(2011)04-0890-05

Audio Real-time Adaptive Transmission Technology Based on Android

SONG Ran-xin1,2, XIE Wei-bo1,2

(1.College of Computer Science & Technology, Huaqiao University, Quanzhou 362021,China; 2.Laboratory of Embedded Technology, Xiamen Software Park, Huaqiao University, Xiamen 361008, China)

Abstract: With the development of the wireless and the mobile networks, the streaming media technology on embedded platform has drawn the attention of most developers. The transmission of the high-quality audio as an important branch is also developing, however, most applications are on the PC platform. With the continuous development of the embedded platform, streaming media applications are also progressing towards embedded systems, This article will present a solution on high-quality real-time adaptive transmission based on Android.

Key words: streaming media; audio; real-time transmission; adaptive; embedded; android

近年來,移動網(wǎng)絡(luò)的發(fā)展已進(jìn)入一個空前活躍的時期,尤其是2009年,國內(nèi)3G網(wǎng)絡(luò)的開放大大加速了無線網(wǎng)絡(luò)的應(yīng)用和普及。隨著網(wǎng)絡(luò)的迅速發(fā)展,網(wǎng)絡(luò)中的實(shí)時的高質(zhì)量音頻(Audio)傳輸已日益引起各方的關(guān)注,尤其是在嵌入式平臺上。本文將就Android平臺下如何實(shí)現(xiàn)高質(zhì)量音頻的實(shí)時自適應(yīng)傳輸提出一種解決方案。

1 Android平臺簡介

1.1 Android 簡介

Android是Google于2007年11月05日宣布的基于Linux平臺的開源手機(jī)操作系統(tǒng)的名稱,該平臺由操作系統(tǒng)、中間件、用戶界面和應(yīng)用軟件組成。它采用軟件堆層(Software Stack,又名軟件疊層)的架構(gòu),主要分為三部分。底層以Linux內(nèi)核工作為基礎(chǔ),由C語言開發(fā),只提供基本功能;中間層包括函數(shù)庫Library和虛擬機(jī)Virtual Machine,由C++開發(fā)。最上層是各種應(yīng)用軟件,包括通話程序,短信程序等,應(yīng)用軟件則由各公司自行開發(fā),以Java作為編寫程序的主要語言。目前,Android已經(jīng)進(jìn)入了自己預(yù)定的和諧的發(fā)展軌道,逐漸地發(fā)展壯大起來,成為了移動及嵌入式平臺中一顆璀璨的新星。

1.2 Android 平臺應(yīng)用程序架構(gòu)

圖1為Android 平臺應(yīng)用程序架構(gòu)。

Linux Kernel: 是Linux Kernel在移動平臺的一個移植,它隱藏了硬件、網(wǎng)絡(luò)等相關(guān)的細(xì)節(jié),為上層提供了一個相對純潔的統(tǒng)一接口。

Libraries: 是一些核心的和擴(kuò)展的類庫,它們都是原生的C++實(shí)現(xiàn)。在這一層,包含眾多開源項(xiàng)目,如SQLite、WebKit、OpenGL 等。如果,該層類庫需要被上層函數(shù)調(diào)用,就必須要通過JNI導(dǎo)出相應(yīng)的接口函數(shù),否則就只能在層次內(nèi)部之間調(diào)用。

在此層中,還有為上層Java程序服務(wù)的運(yùn)行庫。Dalvik虛擬機(jī),是Android的Java虛擬機(jī),之所以不采用 J2ME的虛擬機(jī),一方面是因?yàn)镴2ME的設(shè)計是為了低端機(jī)器而優(yōu)化,而Dalvik則是為了高端一些的機(jī)器進(jìn)行優(yōu)化,提供更好的性能。另一方面,從商業(yè)角度來看,必須繞開J2ME虛擬機(jī),Android才能徹底開源。

Application Framework:框架層,這里包含所有開發(fā)所用的SDK類庫,另外還有一些未公開接口的類庫和實(shí)現(xiàn),它們是整個Android平臺核心機(jī)制的體現(xiàn)。

Application: 應(yīng)用層,系統(tǒng)的一些應(yīng)用和第三方開發(fā)的所有應(yīng)用都是位于這個層次上。

大多數(shù)情況下,開發(fā)者可以依靠框架層提供的SDK使用Java語言進(jìn)行應(yīng)用程序設(shè)計,但是在某些特殊情況下,比如性能優(yōu)化或者平臺移植,這種編程方式便不能滿足開發(fā)需要。除了SDK,Android還提供了NDK(Native Development Kit),NDK的出現(xiàn)意味著,最上面應(yīng)用層的內(nèi)容,可以穿越Java部署的框架層,直接和底層暴露出來的,或者自行開發(fā)的C++庫直接對話,當(dāng)然在這些庫中需要包含JNI(Java Native Interface)的接口。

那么Android為什么不直接用C++進(jìn)行應(yīng)用開發(fā)呢?純C++應(yīng)用,在Android中是無法被接受的。因?yàn)樵贏ndroid中,大量的核心機(jī)制部署在框架層,它們都是用Java實(shí)現(xiàn)的,比如控件庫,Activity的調(diào)度之類的,沒了界面,就沒了調(diào)度,因此,C++的程序作為類庫比較合適。

1.3 JNI技術(shù)

Java本地接口(Java Native Interface (JNI))允許運(yùn)行在Java虛擬機(jī)(Java Virtual Machine (JVM))上的代碼調(diào)用本地程序和類庫,或者被它們調(diào)用,這些程序和類庫可以是其它語言編寫的,比如C、C++或者匯編語言。

當(dāng)一個程序無法完全使用Java編寫時,開發(fā)者可以通過JNI來編寫本地方法,比如標(biāo)準(zhǔn)Java類庫并不支持的依賴于平臺的特色或者程序庫。 JNI還可以用于修改現(xiàn)有的使用其它語言編寫的程序,使它們可以通過Java編寫的程序來訪問。

很多基本類庫都依賴JNI來為開發(fā)者和用戶提供服務(wù),比如文件的輸入/輸出和音頻功能。在基本類庫中包含的對于性能和平臺敏感的API可以允許 所有的Java程序以安全和平臺無關(guān)的方式來使用這些功能。

2 程序的構(gòu)架設(shè)計與具體實(shí)現(xiàn)

2.1 需要解決的問題

2.1.1 程序的基本框架

考慮到Android平臺的構(gòu)架特點(diǎn),程序?qū)⒉捎肑ava和嵌入式C混合編程,由于Java語言的虛擬機(jī)機(jī)制,使其在多媒體編解碼運(yùn)算時無法充分發(fā)揮硬件性能,導(dǎo)致運(yùn)算性能偏低,所以在程序的編解碼部分將通過嵌入式C編寫庫來實(shí)現(xiàn)。程序包含網(wǎng)絡(luò)傳輸在內(nèi)的其他部分將有Java語言完成。最后通過JNI(Java Native Interface)將C庫與Java進(jìn)行銜接。

2.1.2 音頻質(zhì)量與編碼算法

為確保音頻的高質(zhì)量傳輸,在編碼的選擇上,傳統(tǒng)的語音音頻采用 Speech Code 如(G.711, G.723, G.726 , G.729, ILBC, QCELP)這些編碼格式雖然小巧,但是采樣率大多都只有8KHz,處理后對音頻損失較大,為實(shí)現(xiàn)高質(zhì)量的語音,可采用 Audio Code 如 (AAC, OGG, MP3, WMA, SBC 等)。同時,為了方便針對嵌入式平臺運(yùn)行的調(diào)整和優(yōu)化,在選擇編碼的時候盡量選擇開源項(xiàng)目。

在經(jīng)過各種測試后,程序決定采用MP3算法作為音頻的編解碼。測試過的MP3編解碼庫主要有以下幾個:

編碼庫:

Shine:是一款專為ARM優(yōu)化的MP3定點(diǎn)編碼庫,在保證音質(zhì)可以接受的情況下盡量簡化MP3的編碼算法。故它的編碼運(yùn)算速度較快,音質(zhì)從測試看來也在可接受的范圍內(nèi)。

BladeEnc:一款跨平臺的免費(fèi)MP3編碼庫,遵循LGPL,速度快,但不支持定點(diǎn)運(yùn)算。

Comprec:是Shine針對某移動設(shè)備的優(yōu)化修改版,編碼更加簡化速度也更快。

解碼庫:

MAD(libmad):是一個開源的高精度 MPEG 音頻解碼庫,支持 MPEG-1(Layer I, Layer II 和 LayerIII(MP3)。libmad 提供 24-bit 的 PCM 輸出,完全是定點(diǎn)計算。未經(jīng)優(yōu)化的libmad音質(zhì)還原很好,但是解碼速度稍慢。因此需針對平臺優(yōu)化后使用。

Real: 為32位定點(diǎn)處理器提供高性能的MP3解碼支持(僅支持MP3,對MP2和MP1不支持),并且為多種處理器和平臺提供了優(yōu)化配置方案,如(ARM,x86等)。

FFmpeg:開源的跨平臺音視頻編解碼庫,為多種平臺提供配置編譯支持,但由于支持格式眾多,需自行分離及編譯優(yōu)化。

根據(jù)硬件設(shè)備及開發(fā)環(huán)境,可按需要選取合適的編解碼庫。

2.1.3 傳輸?shù)膶?shí)時性

多媒體流的實(shí)時傳輸對帶寬和延遲比較敏感,要求有一定服務(wù)質(zhì)量保證(QoS),傳統(tǒng)的互聯(lián)協(xié)議只能提供盡力而為的服務(wù),對于具有實(shí)時性、連續(xù)性、交互性的流媒體服務(wù)已無法滿足需要。因此,擬采用RTP(Real-time Transpot Protocol)實(shí)時流媒體傳輸協(xié)議進(jìn)行音頻的傳輸。RTP報文用來做實(shí)時傳輸時,可以靈活改變速率、防止亂序。同時輔以RTCP(Real-time Transpot Control Protocol)協(xié)議,其報文在傳輸過程中可以為RTP數(shù)據(jù)提供網(wǎng)絡(luò)狀況和服務(wù)質(zhì)量的反饋。

利用RTP/RTCP的反饋結(jié)果,設(shè)計合適的網(wǎng)絡(luò)自適應(yīng)算法計算網(wǎng)絡(luò)的擁塞程度。

由于Android本身并沒有提供對RTP協(xié)議的支持,因此,Java中實(shí)現(xiàn)RTP協(xié)議傳輸可以使用開源的Jlibrtp庫,Jlibrtp為Java編寫的sourceforge開源項(xiàng)目,提供了RTP數(shù)據(jù)包定義,RTP傳輸,及RTCP反饋等符合RTP協(xié)議傳輸規(guī)范的大多功能。

2.1.4 自適應(yīng)傳輸原理與算法

考慮到嵌入式設(shè)備的性能,網(wǎng)絡(luò)擁塞算法不應(yīng)過于復(fù)雜,可將網(wǎng)絡(luò)擁塞算法和音頻編碼算法相結(jié)合,動態(tài)調(diào)整音頻的編碼和發(fā)送,已達(dá)到較為流暢的媒體流,下面為自適應(yīng)算法原理及簡單描述:

由于RTP/RTCP是運(yùn)行在UDP協(xié)議之上的,而UDP是不可靠的協(xié)議,它沒有TCP的流量控制等能力,因此常用的算法是基于已丟失報文的評估算法。

數(shù)據(jù)包丟失率是監(jiān)控器估計網(wǎng)絡(luò)信道狀況的指標(biāo),但不能直接利用丟失率判斷網(wǎng)絡(luò)信道狀況并據(jù)此調(diào)整音頻的發(fā)送,因?yàn)闀拱l(fā)送數(shù)據(jù)變動得過于頻繁,也使接收端的音頻產(chǎn)生波動,質(zhì)量不穩(wěn)定。在利用數(shù)據(jù)包丟失率估計網(wǎng)絡(luò)信道狀況之前,先對其作平滑處理。[2]

根據(jù)平滑后的數(shù)據(jù)包丟失率與事先確定的閾值的關(guān)系,可以判斷網(wǎng)絡(luò)上的負(fù)載情況,依此將網(wǎng)絡(luò)狀態(tài)分為若干類:

假定暫分為三類(輕載,滿載和阻塞),網(wǎng)絡(luò)狀態(tài)的分類算法:設(shè)定2 個閾值k1、k2(測試給定值),平滑后RTP 數(shù)據(jù)包的丟失率為t(n)。音頻編碼算法為A(i),其中i為調(diào)整編碼的系數(shù),i越大,壓縮比越高,對應(yīng)于三種狀態(tài)的i值分別為i1 < i2 < i3。(i值由實(shí)驗(yàn)統(tǒng)計得出),D為網(wǎng)絡(luò)常規(guī)傳輸速率。

1) 當(dāng)t(n) < k1 時,視為輕載;

2) 當(dāng)t(n) > k1 且t(n) < k2 時,視為滿載;

3) 當(dāng)t(n) > k2 時,視為阻塞。

則自適應(yīng)算法描述為:

if ( t(n) < k1 )

A(i1) ;AIMD(D);

else if ( k1 < t(n) < k2 )

A(i2) ;D;

else

A(i3) ;AIMD(D);

算法中D的增減由 AIMD(加性增乘性減)的算法或其優(yōu)化算法控制。其算法表述為:

其中a,b均為常數(shù), a>=0; 0

2.2 程序整體架構(gòu)與實(shí)現(xiàn)

程序主要包含三個模塊,程序界面,網(wǎng)絡(luò)收發(fā)模塊及音頻編解碼模塊。如圖2。

2.2.1 開發(fā)環(huán)境

開發(fā)平臺:Windows 7企業(yè)版;開發(fā)工具:Eclipse + ADT;開發(fā)環(huán)境:Java 2 SDK ver.1.6,Android SDK v2.1,Android NDK v1.6,Cygwin(其中Cygwin和NDK用來構(gòu)建C/C++的交叉編譯環(huán)境)

2.2.2 程序的設(shè)計與實(shí)現(xiàn)

1)MP3編解碼庫的優(yōu)化:

嵌入式平臺MP3編碼庫算法的優(yōu)化根據(jù)平臺和需求不同,需要做的調(diào)整也不一樣,一般主要都包含以下幾個方面:

① 浮點(diǎn)運(yùn)算改為定點(diǎn)運(yùn)算:嵌入式平臺多數(shù)CPU對浮點(diǎn)運(yùn)算的支持較差或者不支持,因此,如果選擇的編碼是浮點(diǎn)的,需要對此部分進(jìn)行定點(diǎn)改寫,否則運(yùn)算效率將非常低

② 對常用的運(yùn)算函數(shù)用ARM匯編語言重寫:對部分底層常用函數(shù)如加減乘除基本運(yùn)算,用匯編語言改寫可提高程序執(zhí)行效率。

③ 添加JNI接口,使其可以在Java中調(diào)用:自行編寫的C或C++庫在執(zhí)行時位于系統(tǒng)庫中,不能直接使用,因此在編寫優(yōu)化完庫后,需對其添加JNI接口,以供應(yīng)用程序穿過框架層直接進(jìn)行調(diào)用。

C庫中的JNI接口設(shè)計與調(diào)用:

在Android 的NDK中提供了完善的JNI支持,使得在應(yīng)用程序中,可以使用Java方便的調(diào)用Linux的基礎(chǔ)C庫,但是首先要對C庫進(jìn)行改寫,提供JNI的接入支持。

C庫中添加JNI接口:

JNIEXPORT jint JNICALL

Java_com_codec_mp3dec_Mp3dec_write(JNIEnv* env,jobject thiz,

jobject inputStream,

jint len)

{unsigned char* input= (unsigned char*)

((*env)->GetDirectBufferAddress(env,inputStream));

memcpy(readBuf + bytesLeft,input,len);

bytesLeft += len;

fillSize = READBUF_SIZE - bytesLeft;

return fillSize;}

Java中通過JNI調(diào)用:

static

{System.loadLibrary("mp3dec");}

while(getFillSize()>1024) {

buffOut=buffList.take();

nRead = buffOut.length;

inputBuffer.clear();

inputBuffer.put(buffOut);

write(inputBuffer,nRead);} /* 調(diào)用上面C庫中定義的write方法*/

2)程序?qū)崿F(xiàn)的關(guān)鍵類與部分代碼示例

圖3 程序模塊結(jié)構(gòu)圖

AudioRecord和AudioTrack類是Android獲取和播放音頻流的重要類,放置在android.media包中。該包中還包含 MediaRecorder和MediaPlayer類,這幾個類都可實(shí)現(xiàn)音頻的錄制與回放,不同的是AudioRecord和AudioTrack類在獲取和播放音頻數(shù)據(jù)流時無需通過文件保存和文件讀取,可以動態(tài)地直接獲取和播放音頻流,減少了媒體對于磁盤的讀寫,因此非常適合用來實(shí)時處理音頻數(shù)據(jù)流。下面是創(chuàng)建兩個類的對象的具體代碼:

AudioRecord類:

audio_in_buff_size = AudioRecord.getMinBufferSize(8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT);

audio_in_rec = new AudioRecord(MediaRecorder.AudioSource.MIC,8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT,

audio_in_buff_size) ;

AudioTrack類:

audio_out_buff_size = android.media.AudioTrack.getMinBufferSize(8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT);

audio_out_trk = new AudioTrack(AudioManager.STREAM_MUSIC, 8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT,

audio_out_buf_size,AudioTrack.MODE_STREAM);

音頻回放與RTP傳輸模塊示例:

public LiveMP3Play(int rtpPort, int rtcpPort){

try {

rtpSocket = new DatagramSocket(rtpPort);

rtcpSocket = new DatagramSocket(rtcpPort);

} catch (Exception e) {

System.out.println(e.toString());}

rtpSession = new RTPSession(rtpSocket, rtcpSocket);

rtpSession.naivePktReception(true);

rtpSession.RTPSessionRegister(this,null, null);

Participant p = new Participant("10.0.2.2", 16386, 16387);

rtpSession.addParticipant(p); }; /*用jlibrtp中的類創(chuàng)建RTP連接*/

public void run() {

if ( aAudioTrack02 != null ) {

aAudioTrack02.release();

aAudioTrack02 = null;}

int iMinBufSize = AudioTrack.getMinBufferSize(44100,

AudioFormat.CHANNEL_CONFIGURATION_STEREO,

AudioFormat.ENCODING_PCM_16BIT);

if ( iMinBufSize == AudioTrack.ERROR_BAD_VALUE||

iMinBufSize == AudioTrack.ERROR ) {

return;}/*構(gòu)建AudioTrack對象*/

try {

aAudioTrack02 = new AudioTrack(AudioManager.STREAM_MUSIC, 44100,AudioFormat.CHANNEL_CONFIGURATION_STEREO, AudioFormat.ENCODING_PCM_16BIT, iMinBufSize,AudioTrack.MODE_STREAM);

} catch (IllegalArgumentException iae) {

myTextView.setText("new AudioTrack Exceeption:" + iae.toString());

iae.printStackTrace();}

try {

while(!stopLive) {

Message msPackCount = new Message();

msPackCount.what = Mp3dec.GUI_NOTIFIER_PACK; Mp3dec.this.myMessageHandler.sendMessage(msPackCount);

if(pktCount>20)

{ int nRead = 0,rec = 0;

while(getFillSize()>1024) {

buffOut=buffList.take();

nRead = buffOut.length;

inputBuffer.clear();

inputBuffer.put(buffOut);

write(inputBuffer,nRead);} /*將MP3數(shù)據(jù)寫入解碼緩沖區(qū)*/

rec = read(outputBuffer); /*解碼MP3音頻并輸出到緩沖區(qū)*/

outputBuffer.flip();

outputBuffer.limit(rec);

outputBuffer.get(outputByte);

outputBuffer.clear();

aAudioTrack02.write(outputByte, 0, outputByte.length);

aAudioTrack02.play();}}} /*回放解碼后的音頻數(shù)據(jù)*/

catch (InterruptedException e) {

System.out.println("Error Taked !!!!");

e.printStackTrace();}

rtpSession.endSession();

rtpSocket.close();

rtcpSocket.close();}};

3 結(jié)束語

Android系統(tǒng)以其自由的開放性及良好的應(yīng)用程序構(gòu)架正穩(wěn)健而迅速地發(fā)展著,短短幾年時間中運(yùn)行其上的應(yīng)用程序已達(dá)十萬以上,然而在流媒體實(shí)時傳輸方面的應(yīng)用程序卻不多見,隨著移動網(wǎng)絡(luò)的不斷發(fā)展,流媒體在手機(jī)及平板電腦等移動設(shè)備上的應(yīng)用前景顯而易見,本文針對Android 平臺的特點(diǎn),提出了一種高質(zhì)量音頻的實(shí)時傳輸?shù)慕鉀Q方案,旨在拋磚引玉,共同完善和豐富Android 這個開放性平臺上的軟件應(yīng)用。

參考文獻(xiàn):

[1] 葛艷紅,李文鋒,劉旭光.基于RTP流媒體實(shí)時傳輸?shù)腏ava實(shí)現(xiàn)[J].計算機(jī)與現(xiàn)代化,2007,2:59-61.

語音視頻范文第5篇

【關(guān)鍵詞】 SIP 融合通信客戶端 軟件體系架構(gòu)

一、引言

目前,現(xiàn)代電力企業(yè)員工日常辦公活動中,溝通交流越來越重要。而隨著技術(shù)的發(fā)展,利用先進(jìn)的技術(shù)打破當(dāng)前通信手段(如電話、短信、電子郵件和多媒體會議等)中以設(shè)備和網(wǎng)絡(luò)為中心的限制,實(shí)現(xiàn)只要通過最常使用的通信工具和應(yīng)用,就可以便捷高效地與上級、同事、客戶及合作伙伴保持聯(lián)系,這是人們一直以來期望的目標(biāo),而移動性和統(tǒng)一通信的結(jié)合可以達(dá)成這個目標(biāo)。本文將結(jié)合移動設(shè)備自有的特性,討論統(tǒng)一通信移動終端的融合技術(shù)。

二、融合通信移動終端設(shè)計架構(gòu)

2.1 融合通信移動終端概述

融合通信通常是指把計算機(jī)技術(shù)與傳統(tǒng)通信技術(shù)融合一體的新通信模式,融合計算機(jī)網(wǎng)絡(luò)與傳統(tǒng)通信網(wǎng)絡(luò)在一個網(wǎng)絡(luò)平臺上,實(shí)現(xiàn)電話、傳真、數(shù)據(jù)傳輸、音視頻會議、呼叫中心、即時通信等眾多應(yīng)用服務(wù)。隨著移動互聯(lián)的快速發(fā)展,特別是是近幾年iPhone、Android等智能手機(jī)的快速普及,越來越多的移動設(shè)備開始進(jìn)入企業(yè)IT環(huán)境當(dāng)中。

2.2 融合通信移動終端面臨的問題

融合通信移動終端設(shè)計的目標(biāo)是要實(shí)現(xiàn)在任何地方、利用任何設(shè)備,與任何通信實(shí)體進(jìn)行跨平臺、跨地域、跨設(shè)備的透明通信,且能夠保證網(wǎng)絡(luò)安全通暢,這使得客戶端設(shè)計面臨以下的主要問題:(1)統(tǒng)一通信平臺的多樣化,如市場上擁有成熟統(tǒng)一通信產(chǎn)品的就有思科、華為、中興、西門子、微軟、IBM等等,如何保證客戶端都能夠和這些廠商產(chǎn)品兼容;(2)終端系統(tǒng)種類和運(yùn)行環(huán)境多樣化,如市面常見的就有iOS、Android和Windows Phone等;(3)移動網(wǎng)絡(luò)多樣性和復(fù)雜性,而企業(yè)出于安全性考慮,使得移動客戶端接入需要考慮的問題變得復(fù)雜化;(4)業(yè)務(wù)功能的可靠性。如語音、視頻等實(shí)時性業(yè)務(wù)對IP承載網(wǎng)的網(wǎng)絡(luò)質(zhì)量要求很高,而移動設(shè)備的網(wǎng)絡(luò)一般都沒有達(dá)到這么高的帶寬,如何保證音頻/視頻業(yè)務(wù)質(zhì)量。

2.3 融合通信移動終端總體架構(gòu)

2.3.1 功能架構(gòu)

結(jié)合融合通信的功能要求和所面臨的問題,我們設(shè)計的功能框架圖如圖1所示:

移動終端:融合通信平臺的用戶側(cè)最終呈現(xiàn)的應(yīng)用。該客戶端安裝在企業(yè)工作人員或者顧客的手機(jī)上。

管道側(cè):用來為平臺側(cè)與終端側(cè)傳輸數(shù)據(jù)。

服務(wù)端:平臺側(cè)依據(jù)SOA框架搭建,包括框架管理界面、邏輯處理層、接口層和數(shù)據(jù)層。平臺側(cè)為終端上的服務(wù)能力提供支持,其服務(wù)能力能夠利用接口進(jìn)行添加和擴(kuò)展。

2.3.2 設(shè)計體系架構(gòu)

為了解決移動終端開發(fā)所面臨的問題,我們提出了基于中間件的開發(fā)模式,即把所有除實(shí)時音視頻業(yè)務(wù)外的所有其他業(yè)務(wù)統(tǒng)一封裝整合(如基于SOAP協(xié)議的Webservice),而對于實(shí)時性的音視頻業(yè)務(wù),采用通用的SIP協(xié)議和RTP/RTSP協(xié)議結(jié)合的方式處理。結(jié)構(gòu)圖如圖 2所示:

實(shí)現(xiàn)原理:(1)所有非實(shí)時音視頻業(yè)務(wù)全部通過中間件適配形成統(tǒng)一的WebService接口提供給客戶端;這樣可解決多種統(tǒng)一通信平臺接入、多種業(yè)務(wù)系統(tǒng)接入的問題;所有協(xié)議使用Https協(xié)議進(jìn)行傳輸,內(nèi)容通過3DES加密和GZIP壓縮,保證傳輸?shù)陌踩裕唬?)而所有實(shí)時音視頻業(yè)務(wù)則通過SIP會話進(jìn)行控制,具體協(xié)商通過SDP實(shí)現(xiàn),所有業(yè)務(wù)添加對Qos質(zhì)量控制支持,確保業(yè)務(wù)功能的可靠性;(3)實(shí)時音視頻業(yè)務(wù)會話協(xié)商完成后,音視頻數(shù)據(jù)流通過RTP/SRTP協(xié)議直接與統(tǒng)一通信對應(yīng)的音視頻服務(wù)器進(jìn)行對接,確保通用性。

三、移動終端統(tǒng)一通信融合的關(guān)鍵技術(shù)

3.1 SIP協(xié)議

SIP由IETF RFC定義,用于多方多媒體通信。按照IETFRFC2543的定義,SIP是一個基于文本的應(yīng)用層控制協(xié)議,獨(dú)立于底層傳輸協(xié)議TCP/UDP/SCTP,用于建立、修改和終止IP網(wǎng)上的雙方或多方多媒體會話。SIP協(xié)議借鑒了HTTP、SMTP等協(xié)議,支持、重定向及登記定位用戶等功能,支持用戶移動。通過與RTP/RTCP、SDP、RTSP等協(xié)議及DNS配合,SIP支持語音、視頻、數(shù)據(jù)、E-mail、狀態(tài)、IM、聊天、游戲等。SIP協(xié)議可在TCP或UDP之上傳送,由于SIP本身具有握手機(jī)制,可首選UDP。

3.2 視頻編解碼

因?yàn)橐曨l內(nèi)容傳輸需要消耗大量的網(wǎng)絡(luò)帶寬資源,采用合適的視頻編碼技術(shù)也是系統(tǒng)的關(guān)鍵。根據(jù)已有的編碼標(biāo)準(zhǔn)來看,能夠適合碼流在1M到2M,同時又能保證高清的圖像質(zhì)量,比較好的標(biāo)準(zhǔn)有MPEG-4、 H.264、VC-1和AVS幾種。H.264屬于下一代編碼技術(shù)標(biāo)準(zhǔn),是所有壓縮技術(shù)里面壓縮率最高的,在支持實(shí)時標(biāo)清電視節(jié)目時只需要1.5Mbit/s帶寬、點(diǎn)播電視只需要1.2Mbit/s帶寬,其畫質(zhì)就可以達(dá)到DVD效果,這顯然有利于未來通信與娛樂、有線與無線的業(yè)務(wù)開展。因此,從技術(shù)的演進(jìn)來看, H.264視頻編碼標(biāo)準(zhǔn)被認(rèn)為是下一階段的必然選擇。因此,本系統(tǒng)優(yōu)先實(shí)現(xiàn)編碼H.264。

3.3 業(yè)務(wù)質(zhì)量控制

語音、視頻等實(shí)時性業(yè)務(wù)對IP承載網(wǎng)的網(wǎng)絡(luò)質(zhì)量要求很高,為了保障語音、視頻業(yè)務(wù)QoS質(zhì)量,在局域網(wǎng)中將語音、視頻業(yè)務(wù)與OA等信息數(shù)據(jù)業(yè)務(wù)采取不同的VLAN進(jìn)行隔離,要求在交換機(jī)上作配置相應(yīng)QoS策略,實(shí)現(xiàn)對語音、視頻等實(shí)時業(yè)務(wù)媒體流優(yōu)先轉(zhuǎn)發(fā)。

四、結(jié)果展示

通過以上的技術(shù)研究,搭建起一臺中間件服務(wù)器,作為與即時消息服務(wù)器、UC服務(wù)器和信息系統(tǒng)服務(wù)器進(jìn)行數(shù)據(jù)傳輸?shù)闹虚g平臺,使用這些服務(wù)器提供的開發(fā)開發(fā)接口開發(fā)所需要的功能。

同時,在蘋果iOS系統(tǒng)上開發(fā)完成了“融合通信移動客戶端”,主要功能包括以下功能:(1)移動應(yīng)用門戶:融合門戶、OA等信息系統(tǒng),形成統(tǒng)一的移動應(yīng)用門戶;(2)SSO單點(diǎn)登錄:為所有移動化信息系統(tǒng)提供統(tǒng)一的認(rèn)證功能;(3)通訊功能:個人通訊錄、企業(yè)通訊錄、群組、短信群發(fā)、智能搜索、快速定位、點(diǎn)擊撥號、一號通、語音會議等業(yè)務(wù)功能;(4)即時消息:融合騰訊通即時消息功能,可與騰訊通PC版進(jìn)行互通。

宁河县| 永定县| 武隆县| 太白县| 中卫市| 枣阳市| 奉贤区| 娄底市| 洪泽县| 廉江市| 湘潭县| 类乌齐县| 金阳县| 鹿泉市| 南澳县| 北票市| 五峰| 东城区| 岗巴县| 高密市| 漳州市| 龙陵县| 望城县| 房山区| 安平县| 安阳县| 巴林左旗| 银川市| 剑阁县| 深圳市| 东阿县| 资阳市| 平安县| 弋阳县| 武邑县| 和政县| 北流市| 逊克县| 个旧市| 怀仁县| 平凉市|