<em id="eqy4e"><acronym id="eqy4e"></acronym></em>

    1. <button id="eqy4e"><object id="eqy4e"></object></button>
      <button id="eqy4e"></button>
      <span id="eqy4e"></span>

      1. <rp id="eqy4e"><acronym id="eqy4e"><blockquote id="eqy4e"></blockquote></acronym></rp>
        setting alipay wechat success appmanage dollor user cart order workorder logout left1 left2 app unfree free chart coupon note copy pencil price-tag database cog bin list link plus minus codepen 審核 cross table search user-tie eye github cancel-circle checkmark icon-upload icon-smartphon icon-auth-user icon-arroba-symbol icon-check-pass icon-red-cross icon-pwd-key icon-used icon-expired android appleinc tux windows8 java webAPI mail vip

          # 離線語音聽寫 Android SDK 文檔

          # 1、簡介

          語音聽寫,是基于自然語言處理,將自然語言音頻轉換為文本輸出的技術。語音聽寫技術與語法識別技術的不同在于,語音聽寫不需要基于某個具體的語法文件,其識別范圍是整個語種內的詞條。

          語音聽寫詳細的接口介紹及說明請參考: MSC Android API 文檔 (opens new window)。

          在集成過程中出現錯誤,請優先查詢SDK&API 錯誤碼查詢 (opens new window)。如有疑問,請提交工單 (opens new window)進行咨詢,也可登錄訊飛開放平臺論壇 (opens new window)與廣大開發者共同學習和交流

          # 2、SDK集成指南

          # 2.1、Demo運行步驟

          根據官網控制臺 (opens new window)提示,直接下載SDK,SDK中包含簡易可運行的Demo。如下圖所示:

          下載完SDK后,解壓至相應的路徑。

          注:使用demo測試時,需將res中除layout外資源拷貝到demo中assets相應的路徑下

          以Android Studio集成開發工具為例,測試時建議直接用真機進行測試。

          # 方法一(導入project方式):

          打開Android Studio,在菜單欄File--->new--->import project當前解壓sdk路徑,使用離線服務能力選擇導入mscV5PlusDemo,如下圖所示:

          導入成功之后sync編譯下,編譯無誤可連接手機,開啟手機USB開發調試模式,直接在Android Studio運行導入的mscV5PlusDemo,最后生成的apk可直接安裝在對應的手機上,如下圖所示:

          如果編譯時出現“ERROR: Plugin with id 'com.android.application' not found.”錯誤,請在build.gradle文件中添加以下代碼。

          buildscript {
              repositories {
                  google()
                  jcenter()
              }
              dependencies {
                   //版本號請根據自己的gradle插件版本號自行更改
                  classpath 'com.android.tools.build:gradle:3.4.0'
                  // NOTE: Do not place your application dependencies here; they belong
                  // in the individual module build.gradle files
              }
          }
          

          如在導入項目中還出現其他問題,可參考帖子:安卓demo常見錯誤排查 (opens new window)

          # 方法二(導入module方式):

          打開Android Studio,在菜單欄File--->new--->import Module當前解壓sdk路徑,使用離線服務能力選擇導入mscV5PlusDemo,導入成功之后sync編譯下,編譯無誤可連接手機,開啟手機USB開發調試模式,直接在Android Studio運行導入的mscV5PlusDemo,最后生成的apk可直接安裝在對應的手機上。

          # 2.2、項目集成步驟

          # 2.2.1、SDK包說明

          《Android SDK目錄結構一覽》

          • manifests:
            • android配置應用權限文件
          • sample:
            • 相關離線能力demo(離線語音聽寫IatDemo)
          • assets:
            • SDK相關資源配置文件
          • Libs:
            • 動態庫和jar包
          • res:
            • UI文件和相關布局文件xml
          • readme說明(必看)
          • release 版本說明

          # 2.2.2、導入SDK

          將在官網下載的Android SDK 壓縮包中libs目錄下所有子文件拷貝至Android工程的libs目錄下,如下圖所示:

          備注:

          1. arm版本已經逐步淘汰了,arm架構的推薦使用armeabi-v7a。
          2. 如果您需要將應用push到設備使用,請將設備cpu對應指令集的libmsc.so push到/system/lib中。
          3. 使用demo測試時,需將res中除layout外資源拷貝到demo中assets相應的路徑下。
          4. .集成到項目,需要將sdk中Demo/src/main/下文件拷貝到項目main中,以AS為例,且需要在項目main文件夾下新建Jnilibs并拷貝libmsc.so。
          5. msc.jar需要拷貝至項目libs下,并且右鍵jar添加Add As Library。
          6. sdk下文件夾main/assets/,自帶UI頁面(iflytek文件夾)和相關其他服務資源文件(語法文件、音頻示例、詞表),使用自帶UI接口時,可以將assets/iflytek文件拷貝到項目中。

          # 2.2.3、添加用戶權限

          在工程 AndroidManifest.xml 文件中添加如下權限

              <!--連接網絡權限,用于執行云端語音能力 -->
              <uses-permission android:name="android.permission.INTERNET"/>
              <!--獲取手機錄音機使用權限,聽寫、識別、語義理解需要用到此權限 -->
              <uses-permission android:name="android.permission.RECORD_AUDIO"/>
              <!--讀取網絡信息狀態 -->
              <uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/>
              <!--獲取當前wifi狀態 -->
              <uses-permission android:name="android.permission.ACCESS_WIFI_STATE"/>
              <!--允許程序改變網絡連接狀態 -->
              <uses-permission android:name="android.permission.CHANGE_NETWORK_STATE"/>
              <!--讀取手機信息權限 -->
              <uses-permission android:name="android.permission.READ_PHONE_STATE"/>
              <!--讀取聯系人權限,上傳聯系人需要用到此權限 -->
              <uses-permission android:name="android.permission.READ_CONTACTS"/>
              <!--外存儲寫權限,構建語法需要用到此權限 -->
              <uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE"/>
              <!--外存儲讀權限,構建語法需要用到此權限 -->
              <uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE"/>
              <!--配置權限,用來記錄應用配置信息 -->
              <uses-permission android:name="android.permission.WRITE_SETTINGS"/>
              <!--手機定位信息,用來為語義等功能提供定位,提供更精準的服務-->
              <!--定位信息是敏感信息,可通過Setting.setLocationEnable(false)關閉定位請求 -->
              <uses-permission android:name="android.permission.ACCESS_FINE_LOCATION"/>
              <!--如需使用人臉識別,還要添加:攝相頭權限,拍照需要用到 -->
              <uses-permission android:name="android.permission.CAMERA" />
          

          注意:如需在打包或者生成APK的時候進行混淆,請在proguard.cfg中添加如下代碼:

              -keep class com.iflytek.**{*;}
              -keepattributes Signature
          

          # 2.2.4、初始化

          初始化即創建語音配置對象,只有初始化后才可以使用MSC的各項服務。建議將初始化放在程序入口處(如Application、Activity的onCreate方法),初始化代碼如下:

              // 將“12345678”替換成您申請的APPID,申請地址:http://www.xfyun.cn
              // 請勿在“=”與appid之間添加任何空字符或者轉義符
              // appid 必須和下載的SDK保持一致,否則會出現10407錯誤
              // 應用程序入口處調用,避免手機內存過小,殺死后臺進程后通過歷史intent進入Activity造成SpeechUtility對象為null
              SpeechUtility.createUtility(context, SpeechConstant.APPID +"=12345678");
          

          # 2.3、UI設置

          sdk提供了兩種識別方式,分別為帶UI識別和無UI方式:

          # 2.3.1、無UI識別

          //初始化識別無UI識別對象
          //使用SpeechRecognizer對象,可根據回調消息自定義界面;
          mIat = SpeechRecognizer.createRecognizer(IatDemo.this, mInitListener);
          
          //設置語法ID和 SUBJECT 為空,以免因之前有語法調用而設置了此參數;或直接清空所有參數,具體可參考 DEMO 的示例。
          mIat.setParameter( SpeechConstant.CLOUD_GRAMMAR, null );
          mIat.setParameter( SpeechConstant.SUBJECT, null );
          //設置返回結果格式,目前支持json,xml以及plain 三種格式,其中plain為純聽寫文本內容
          mIat.setParameter(SpeechConstant.RESULT_TYPE, "json");
          //此處engineType為“cloud”
          mIat.setParameter( SpeechConstant.ENGINE_TYPE, engineType );
          //設置語音輸入語言,zh_cn為簡體中文
          mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");
          //設置結果返回語言
          mIat.setParameter(SpeechConstant.ACCENT, "mandarin");
          // 設置語音前端點:靜音超時時間,單位ms,即用戶多長時間不說話則當做超時處理
          //取值范圍{1000~10000}
          mIat.setParameter(SpeechConstant.VAD_BOS, "4000");
          //設置語音后端點:后端點靜音檢測時間,單位ms,即用戶停止說話多長時間內即認為不再輸入, 
          //自動停止錄音,范圍{0~10000}
          mIat.setParameter(SpeechConstant.VAD_EOS, "1000");
          //設置標點符號,設置為"0"返回結果無標點,設置為"1"返回結果有標點
          mIat.setParameter(SpeechConstant.ASR_PTT,"1");
          
          //開始識別,并設置監聽器
          mIat.startListening(mRecogListener);
          

          # 2.3.2、帶UI識別

          // 初始化聽寫Dialog,如果只使用有UI聽寫功能,無需創建SpeechRecognizer
          // 使用UI聽寫功能,請根據sdk文件目錄下的notice.txt,放置布局文件和圖片資源
          mIatDialog = new RecognizerDialog(IatDemo.this, mInitListener);
          
          //以下為dialog設置聽寫參數
          mIatDialog.setParams("xxx","xxx");
          ....
          
          //開始識別并設置監聽器
          mIatDialog.setListener(mRecognizerDialogListener);
          //顯示聽寫對話框
          mIatDialog.show();
          

          # 3、參數設置

          # 3.1、基礎參數

          參數名稱 名稱 說明
          engine_type 引擎類型 離線語音聽寫默認為:local
          asr_res_path 離線識別資源 離線命令詞識別需要使用本地資源,通過此參數設置本地資源所在的路徑
          值范圍:有效的資源文件路徑
          默認值:null
          result_type 返回結果格式 主要分為三種:json,xml,plain
          默認:json
          language 語言 離線語音聽寫僅支持中文:zh_cn
          accent 方言 離線語音聽寫僅支持:mandarin
          asr_ptt 標點符號 (僅中文支持)標點符號添加
          1:開啟(默認值)
          0:關閉
          vad_bos 前端點檢測 開始錄入音頻后,音頻前面部分最長靜音時長,取值范圍[0,10000ms],默認值5000ms
          vad_eos 后端點檢測 開始錄入音頻后,音頻后面部分最長靜音時長,取值范圍[0,10000ms],默認值1800ms。

          # 3.2、離線資源路徑設置

          resource設置中包含兩個資源,common.jet 和 sms_16k.jet, 從資源配置中可以看出,目前離線聽寫僅支持16k音頻

          private String getResourcePath(){
          		StringBuffer tempBuffer = new StringBuffer();
          		//識別通用資源
          		tempBuffer.append(ResourceUtil.generateResourcePath(this, ResourceUtil.RESOURCE_TYPE.assets, "iat/common.jet"));
          		tempBuffer.append(";");
          		tempBuffer.append(ResourceUtil.generateResourcePath(this, ResourceUtil.RESOURCE_TYPE.assets, "iat/sms_16k.jet"));
          		return tempBuffer.toString();
          	}
          

          # 4、常見問題

          # 支持哪些語言?

          答:目前只支持中文(普通話)。

          # 離線語音聽寫是否可以試用?

          答:可以的,目前提供10個裝機量可以免費試用,試用期90天。

          # 離線語音聽寫是否支持個性化熱詞功能?

          答:目前不支持。

          # 離線語音聽寫支持的音頻格式是什么?

          答:音頻長度:小于20s;采樣率16KHz;采樣精度:16bit;聲道單聲道,音頻文件的錄制和格式確認(推薦使用Cool Edit Pro工具)。

          # 離線語音聽寫識別率低是什么原因?

          答:請檢查上傳的音頻格式和屬性是否滿足pcm、wav對應16KHZ,16bit的音頻,如果離線語音聽寫效果達不到您項目的要求,建議使用在線聽寫。

          # 支持平臺是什么?

          答:目前只支持Android平臺,不支持其他平臺。

          国产精品国产三级国产专播,玩两个丰满奶水足在线播放,我和子发生了性关系视频,爱情岛av永久网址