国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

科大訊飛語音識別和語音播放dome

KitorinZero / 3535人閱讀

摘要:最后,現在時間是年月日到目前為止科大訊飛的不支持客戶端和服務端分開的情況,也就是說,語音合成是在服務端的話筒的播放,語音識別需要服務端的麥克風錄音,,對于沒有任何卵用。

首先登陸科大訊飛開發者平臺,注冊賬號,(走你->http://www.xfyun.cn/)
可以根據功能(語音識別,語音播放等),平臺(java,window等),來創建屬于自己的應用。
應用創建成功后對有一個對應的appid以及sdk(開發工具包);
我們自己開發的話需要sdk里面的四個文件

分別是兩個庫文件:libmsc64(32).so ,msc64(32).dll 
兩個jar包 :Msc.jar ,json-jena.jar

jar包正常導入,兩個文件需要注意,如果是javaSE項目,就直接放到項目的根目錄下,

如果項目是javaweb且在window系統中,將文件放在哪里都可以,但是必須將文件的路徑加入到電腦環境變量的path路徑里,

如果是項目是javaweb在linux系統中,需要將兩個庫文件放到lib文件夾下。

最后,現在時間是2017年7月11日14:39.到目前為止科大訊飛的javaSDK不支持客戶端和服務端分開的情況,也就是說,語音合成是在服務端的話筒的播放,語音識別需要服務端的麥克風錄音,so,javaSDK對于javaWeb沒有任何卵用。

下面是javaSE版本的dome的介紹:

/**
 * Created by Mshu on 2017/6/27.
 * 語音識別
 */   
public class Listening {
    private static final String APPID = "你的專屬appid";
    public static void main(String[] args) {
        SpeechUtility.createUtility("appid=" + APPID);
        //1.創建SpeechRecognizer對象
        SpeechRecognizer mIat= SpeechRecognizer.createRecognizer( );
        //2.設置聽寫參數,詳見《MSC Reference Manual》SpeechConstant類
        mIat.setParameter(SpeechConstant.DOMAIN, "iat"); //領域短信和日常用語:iat (默認);視頻:video;地圖:poi;音樂:music
        mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");//簡體中文:zh_cn(默認);美式英文:en_us
        mIat.setParameter(SpeechConstant.ACCENT, "mandarin ");//方言普通話:mandarin(默認);粵 語:cantonese四川話:lmz;河南話:henanese
        mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, "./tts_test.pcm");                      //識別完成后在本地保存一個音頻文件
        mIat.setParameter(SpeechConstant.AUDIO_SOURCE,"1");  //如果不寫默認是“1”,“1”是從麥克風讀取聲音,“-1”是從.pcm音頻文件讀取聲音
        //3.開始聽寫-
        Recognizer recognizer =new Recognizer();
        mIat.startListening (recognizer);
    }
}

/**
 * Created by Mshu 2017/7/11.
 * 語音識別回掉
 */
public class Recognizer implements RecognizerListener {
    //開始錄音
    public void onBeginOfSpeech() {
        System.out.println(".。開始錄音。.");
    }
    //音量值0~30
    public void onVolumeChanged(int volume){
            /*System.out.println("當前音量"+volume);*/
    }
    //結束錄音
    public void onEndOfSpeech() {
        System.out.println("錄音結束");
    }
    //擴展用接口
    public void onEvent(int eventType,int arg1,int arg2,String msg) {}
    //聽寫結果回調接口(返回Json格式結果,用戶可參見附錄);
    //一般情況下會通過onResults接口多次返回結果,完整的識別內容是多次結果的累加;
    //關于解析Json的代碼可參見MscDemo中JsonParser類;
    //isLast等于true時會話結束。
    public void onResult(RecognizerResult results, boolean isLast){
        System.out.println("Result:"+results.getResultString ());
        //結果實例
        //Result:{"sn":1,"ls":false,"bg":0,"ed":0,"ws":[{"bg":0,"cw":[{"sc":0.00,"w":"你好"}]}]}
        //sn:第幾句
        //ls:是否是第一句
        //bg:開始
        //ed:結束
        //ws:詞語
        //cw:中文分詞
        //w:單詞
        //sc:分數
    }
    //會話發生錯誤回調接口
    public void onError(SpeechError error) {
        // error.getPlainDescription(true); //獲取錯誤碼描述
        System.out.println(error.getErrorDesc());
    }
    


 * Created by Mshu on 2017/6/27.
 * 語音合成
 */
import com.iflytek.cloud.speech.*;
public class Spesking {
    private static final String APPID = "59522b3c";
    public static void specking() {
    SpeechUtility.createUtility("appid=" + APPID);
//1.創建SpeechSynthesizer對象
        SpeechSynthesizer mTts= SpeechSynthesizer.createSynthesizer( );
//2.合成參數設置,詳見《MSC Reference Manual》SpeechSynthesizer 類
        mTts.setParameter(SpeechConstant.VOICE_NAME, "xiaoyan");    //設置發音人
        mTts.setParameter(SpeechConstant.SPEED, "50");              //設置語速  范圍0~100
        mTts.setParameter(SpeechConstant.VOLUME, "80");             //設置音量,范圍0~100
//設置合成音頻保存位置(可自定義保存位置),保存在“./tts_test.pcm”
//如果不需要保存合成音頻,注釋該行代碼
        mTts.setParameter(SpeechConstant.TTS_AUDIO_PATH, "./tts_test.pcm");
//3.開始合成
        Synthesizer synthesizer = new Synthesizer();
        mTts.startSpeaking("語音合成測試程序", synthesizer);
    }
}
/**
 * Created by Asus on 2017/6/29.
 * 語音合成回掉
 */
public class Synthesizer implements SynthesizerListener {
    //會話結束回調接口,沒有錯誤時,error為null
    public void onCompleted(SpeechError error) {
    }

    @Override
    public void onEvent(int i, int i1, int i2, int i3, Object o, Object o1) {
    }

    //緩沖進度回調
    //percent為緩沖進度0~100,beginPos為緩沖音頻在文本中開始位置,endPos表示緩沖音頻在文本中結束位置,info為附加信息。
    public void onBufferProgress(int percent, int beginPos, int endPos, String info) {
    }

    //開始播放
    public void onSpeakBegin() {
    }

    //暫停播放
    public void onSpeakPaused() {
    }

    //播放進度回調
    //percent為播放進度0~100,beginPos為播放音頻在文本中開始位置,endPos表示播放音頻在文本中結束位置.
    public void onSpeakProgress(int percent, int beginPos, int endPos) {
    }

    //恢復播放回調接口
    public void onSpeakResumed() {
    }
}

以上是語音識別和語音合成兩個基礎功能,由于篇幅限制,就不寫其他功能了,

其他功能比如無聲合成和音頻流聽寫,其實就是將文字合成語音文件和讀取語音文件并播放兩個功能。對了!

還有上傳詞匯表的功能,上傳用戶詞表可以提高詞表內詞匯的識別率,也可以提高語義的效果,對付多音字比較奏效,比如 Fa Yan的讀音,對應的漢子有 “發言” , “發炎” ;如果將 ”發炎“ 的詞匯加入詞匯表,它會優先辨識為發炎。

完整功能的dome地址:https://github.com/Mshu95/vioce (別用我的appid)
----在下載的SDK里面也有官方的例子。

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/67365.html

相關文章

  • 智能語音受熱捧,華為云聯手科大訊飛惡補短板

    摘要:近日,科大訊飛與華為在深圳簽署了戰略合作協議,科大訊飛董事長劉慶峰華為輪值董事長徐直軍均出席簽約儀式,足以看出雙方對此次合作的重視程度。華為云需要科大訊飛,特別是科大訊飛的智能語音技術。在云計算智能語音領域,BAT由于多年的互聯網基因,都有非常深厚的智能語音功底,百度有百度度秘,阿里有阿里小蜜,騰訊有騰訊小微。而華為云作為一家傳統ICT轉型做云的企業,似乎并沒有經受太多互聯網智能語音訓練。但...

    OnlyLing 評論0 收藏0
  • 語音識別框架最新進展——深度全序列卷積神經網絡登場

    摘要:目前較好的語音識別系統采用雙向長短時記憶網絡,,這種網絡能夠對語音的長時相關性進行建模,從而提高識別正確率。因而科大訊飛使用深度全序列卷積神經網絡來克服雙向的缺陷。 人工智能的應用中,語音識別在今年來取得顯著進步,不管是英文、中文或者其他語種,機器的語音識別準確率在不斷上升。其中,語音聽寫技術的發展更為迅速,目前已廣泛在語音輸入、語音搜索、語音助手等產品中得到應用并日臻成熟。但是,語音應用的...

    explorer_ddf 評論0 收藏0
  • 原 Python用ctypes調用動態庫的方式使用科大訊飛語音識別

    摘要:科大訊飛的語音識別客戶端提供了下的語言,卻沒有的。有了,我們就可以很輕松的用來使用科大訊飛的語音識別了。通過函數加載動態庫在里面調用函數時主要是注意參數的類型。 ctypes 是 Python 的一個模塊,它提供了C語言相關的數據類型,可以方便的調用C語言編寫的DLL(Windows 動態鏈接庫)和so(Linux動態鏈接庫)。科大訊飛的語音識別客戶端SDK提供了Linux下的C語言S...

    andycall 評論0 收藏0
  • 微信小程序--------語音識別(前端自己也能玩)

    摘要:一背景作為一名前端同學有時候感覺挺可憐的,復雜的操作都依賴后端同學在服務器端完成。 一、背景 作為一名前端同學有時候感覺挺可憐的,復雜的操作都依賴后端同學在服務器端完成。那么,有一天我們自己想玩一個新技術或者后端同學不搭理我們,怎么辦?絕望中..... 二、小程序語音識別 接到這個需求,我們明確兩個問題: 小程序錄音支持什么格式 由小程序文檔可知:只支持 mp3格式和 aac格式微信...

    omgdog 評論0 收藏0
  • 在Python中使用科大訊飛Web API進行語音合成

    摘要:所以這次總結一下在中使用訊飛進行語音合成的過程。最后需要將配置參數編碼為字符串字典類型明文字符串編碼字符串,具體實現可以參考代碼。返回值的具體說明請參考返回值語音合成。 前幾日訊飛開放平臺推出了WebAPI接口,恰好最近需要實現一個文字轉語音的功能,于是就嘗試著用了起來。但不知什么原因,官方文檔的調用示例一直報錯,最后自己照著示例的思路用python3重寫了一遍。所以這次總結一下在Py...

    Eminjannn 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<