| SpeechServiceConnection_Key |
Cognitive Services Speech Service サブスクリプション キー。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromSubscriptionを使用します。 |
| SpeechServiceConnection_Endpoint |
Cognitive Services Speech Service エンドポイント (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromEndpointを使用します。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。 |
| SpeechServiceConnection_Region |
Cognitive Services Speech Service リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromSubscription、SpeechConfig::FromEndpoint、SpeechConfig::FromHost、SpeechConfig::FromAuthorizationTokenを使用します。 |
| SpeechServiceAuthorization_Token |
Cognitive Services Speech Service 承認トークン (アクセス トークンとも呼ばれる)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromAuthorizationToken、 SpeechRecognizer::SetAuthorizationToken、またはTranslationRecognizer::SetAuthorizationTokenを使ってください。 |
| SpeechServiceAuthorization_Type |
Cognitive Services Speech Service 承認の種類。 現在使用されていません。 |
| SpeechServiceConnection_EndpointId |
Cognitive Services Custom Speech または Custom Voice Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetEndpointIdを使用します。 注: エンドポイント ID は、Custom Speech ポータルの [エンドポイントの詳細] の下に表示されます。 |
| SpeechServiceConnection_Host |
Cognitive Services Speech Service ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::FromHostを使用します。 |
| SpeechServiceConnection_ProxyHostName |
Cognitive Services Speech Service への接続に使用するプロキシ サーバーのホスト名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。 |
| SpeechServiceConnection_ProxyPort |
Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのポート。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。 |
| SpeechServiceConnection_ProxyUserName |
Cognitive Services Speech Service への接続に使用するプロキシ サーバーのユーザー名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。 |
| SpeechServiceConnection_ProxyPassword |
Cognitive Services Speech Service への接続に使用するプロキシ サーバーのパスワード。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetProxyを使用します。 注: このプロパティ ID はバージョン 1.1.0 で追加されました。 |
| SpeechServiceConnection_Url |
音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 注: バージョン 1.5.0 で追加されました。 |
| SpeechServiceConnection_ProxyHostBypass |
プロキシを使用しないホストの一覧を指定します。 この設定は、他のすべての構成をオーバーライドします。 ホスト名はコンマで区切られ、大文字と小文字は区別されません。 ワイルドカードはサポートされていません。 |
| SpeechServiceConnection_TranslationToLanguages |
ターゲット翻訳言語として使用されるコンマ区切り言語の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechTranslationConfig::AddTargetLanguage と SpeechTranslationConfig::GetTargetLanguages を使用します。 |
| SpeechServiceConnection_TranslationVoice |
Cognitive Service テキスト読み上げ Service 音声の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechTranslationConfig::SetVoiceName を使用します。 注: 有効な音声名は、見つけることができます。 |
| SpeechServiceConnection_TranslationFeatures |
翻訳機能。 内部使用の場合。 |
| SpeechServiceConnection_RecoMode |
Cognitive Services Speech Service 認識モード。 "INTERACTIVE"、"CONVERSATION"、"DICTATION" を指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 |
| SpeechServiceConnection_RecoLanguage |
認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetSpeechRecognitionLanguageを使用します。 |
| Speech_SessionId |
セッション ID。この ID は、オーディオ入力ストリームの特定のバインドと、それがバインドされている基になる音声認識インスタンスを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SessionEventArgs::SessionIdを使用します。 |
| SpeechServiceConnection_UserDefinedQueryParameters |
ユーザーによって提供されるクエリ パラメーター。 これらは、URL クエリ パラメーターとしてサービスに渡されます。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceConnection_RecoBackend |
音声認識に使用するバックエンドを指定する文字列。許可されているオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用しないでください。 現在、オフライン オプションは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。 |
| SpeechServiceConnection_RecoModelName |
音声認識に使用するモデルの名前。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。 |
| SpeechServiceConnection_RecoModelKey |
このプロパティは非推奨です。 |
| SpeechServiceConnection_RecoModelIniFile |
音声認識に使用するモデルの ini ファイルへのパス。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。 |
| SpeechServiceConnection_SynthLanguage |
合成する音声言語 (en-USなど) がバージョン 1.4.0 で追加されました。 |
| SpeechServiceConnection_SynthVoice |
音声合成に使用する TTS 音声の名前。バージョン 1.4.0 で追加されました。 |
| SpeechServiceConnection_SynthOutputFormat |
バージョン 1.4.0 で追加された TTS 出力オーディオ形式を指定する文字列。 |
| SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
音声合成オーディオ伝送に圧縮オーディオ形式を使用するかどうかを示します。 このプロパティは、SpeechServiceConnection_SynthOutputFormatが pcm 形式に設定されている場合にのみ影響します。 このプロパティが設定されておらず、GStreamer が使用可能な場合、SDK は合成オーディオ転送に圧縮形式を使用し、デコードします。 このプロパティを "false" に設定すると、ネットワーク上の伝送に生の pcm 形式を使用できます。 バージョン 1.16.0 で追加されました。 |
| SpeechServiceConnection_SynthBackend |
TTS バックエンドを指定する文字列。有効なオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPaths を使用して、合成バックエンドをオフラインに設定します。 バージョン 1.19.0 で追加されました。 |
| SpeechServiceConnection_SynthOfflineDataPath |
オフライン合成エンジンのデータ ファイル パス。は、合成バックエンドがオフラインの場合にのみ有効です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPathsを使用します。 バージョン 1.19.0 で追加されました。 |
| SpeechServiceConnection_SynthOfflineVoice |
音声合成に使用するオフライン TTS 音声の名前 通常の状況では、このプロパティを直接使用しないでください。 代わりに、EmbeddedSpeechConfig::SetSpeechSynthesisVoice と EmbeddedSpeechConfig::GetSpeechSynthesisVoiceNameを使用します。 バージョン 1.19.0 で追加されました。 |
| SpeechServiceConnection_SynthModelKey |
このプロパティは非推奨です。 |
| SpeechServiceConnection_VoicesListEndpoint |
Cognitive Services Speech Service 音声リスト API エンドポイント (URL)。 通常の状況では、このプロパティを指定する必要はありません。SDK は、SpeechConfigのリージョン/ホスト/エンドポイントに基づいてこのプロパティを構築します。 バージョン 1.16.0 で追加されました。 |
| SpeechServiceConnection_InitialSilenceTimeoutMs |
サービスによって使用される初期無音タイムアウト値 (ミリ秒)。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceConnection_EndSilenceTimeoutMs |
このプロパティは非推奨です。 サイレンスタイムアウトに関する最新情報については、 https://aka.ms/csspeech/timeoutsをご覧ください。 |
| SpeechServiceConnection_EnableAudioLogging |
サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオ ログとコンテンツ ログは、Microsoft が所有するストレージ、または Cognitive Services サブスクリプションにリンクされた独自のストレージ アカウント (BYOS (Bring Your Own Storage) 対応 Speech リソース) に格納されます。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceConnection_LanguageIdMode |
Speech Service 接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 言語識別 ドキュメント 参照してください。 1.25.0 で追加されました。 |
| SpeechServiceConnection_TranslationCategoryId |
Speech Service 接続の翻訳 categoryId。 |
| SpeechServiceConnection_AutoDetectSourceLanguages |
バージョン 1.8.0 で追加された自動検出ソース言語。 |
| SpeechServiceConnection_AutoDetectSourceLanguageResult |
ソース言語の自動検出の結果がバージョン 1.8.0 で追加されました。 |
| SpeechServiceResponse_RequestDetailedResultTrueFalse |
要求された Cognitive Services Speech Service 応答出力形式 (単純または詳細)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechConfig::SetOutputFormatを使用します。 |
| SpeechServiceResponse_RequestProfanityFilterTrueFalse |
要求された Cognitive Services Speech Service 応答出力の不適切なレベル。 現在使用されていません。 |
| SpeechServiceResponse_ProfanityOption |
要求された Cognitive Services Speech Service 応答出力の不適切な設定。 使用できる値は、"masked"、"removed"、および "raw" です。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceResponse_PostProcessingOption |
サービスで使用する後処理オプションを指定する文字列値。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceResponse_RequestWordLevelTimestamps |
応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceResponse_StablePartialResultThreshold |
単語が部分的な結果に含まれている必要がある回数を返します。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceResponse_OutputFormatOption |
応答結果の出力形式オプションを指定する文字列値。 内部使用のみ。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceResponse_RequestSnr |
応答結果に SNR (信号対ノイズ比) を含めるかどうかを指定するブール値。 バージョン 1.18.0 で追加されました。 |
| SpeechServiceResponse_TranslationRequestStablePartialResult |
末尾の単語を省略して翻訳の部分的な結果を安定させるために要求するブール値。 バージョン 1.5.0 で追加されました。 |
| SpeechServiceResponse_RequestWordBoundary |
WordBoundary イベントを要求するかどうかを指定するブール値。 バージョン 1.21.0 で追加されました。 |
| SpeechServiceResponse_RequestPunctuationBoundary |
WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。 バージョン 1.21.0 で追加されました。 |
| SpeechServiceResponse_RequestSentenceBoundary |
WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。 バージョン 1.21.0 で追加されました。 |
| SpeechServiceResponse_SynthesisEventsSyncToAudio |
SDK で合成メタデータ イベント (単語の境界、口形素など) をオーディオ再生に同期させるかどうかを指定するブール値。 これは、オーディオが SDK を介して再生された場合にのみ有効になります。 既定値は true です。 false に設定すると、SDK はサービスからのイベントを起動します。これは、オーディオ再生と同期していない可能性があります。 バージョン 1.31.0 で追加されました。 |
| SpeechServiceResponse_JsonResult |
Cognitive Services Speech Service 応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。 |
| SpeechServiceResponse_JsonErrorDetails |
Cognitive Services Speech Service エラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、CancellationDetails::ErrorDetailsを使用します。 |
| SpeechServiceResponse_RecognitionLatencyMs |
認識の待機時間 (ミリ秒単位)。 読み取り専用で、最終音声・翻訳結果で閲覧可能。 これにより、SDK によってオーディオ入力が受信されてから、サービスから最終的な結果が受信された時点までの待機時間が測定されます。 SDK は、最終的な結果に寄与するオーディオ入力からの最後のオーディオ フラグメントと、音声サービスから最終的な結果を受信した時刻の時間差を計算します。 バージョン 1.3.0 で追加されました。 |
| SpeechServiceResponse_RecognitionBackend |
認識バックエンド。 読み取り専用。音声認識の結果で使用できます。 これは、結果を生成するためにクラウド (オンライン) または埋め込み (オフライン) 認識が使用されたかどうかを示します。 |
| SpeechServiceResponse_RequestId |
この認識のための音声サービスからのリクエストIDです。 これはリクエストの一意識別子です。 読み取り専用で、最終音声・翻訳認識結果で利用可能です。 |
| SpeechServiceResponse_SynthesisFirstByteLatencyMs |
音声合成の最初のバイト待機時間 (ミリ秒)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されてから、最初のバイト オーディオが使用可能になった時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。 |
| SpeechServiceResponse_SynthesisFinishLatencyMs |
音声合成のすべてのバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されてから、オーディオ全体が合成された時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。 |
| SpeechServiceResponse_SynthesisUnderrunTimeMs |
音声合成のアンダーラン時間 (ミリ秒単位)。 読み取り専用。SynthesisCompleted イベントの結果で使用できます。 これは、PropertyId::AudioConfig_PlaybackBufferLengthInMs が合成完了までの合計アンダーラン時間を測定します。 バージョン 1.17.0 で追加されました。 |
| SpeechServiceResponse_SynthesisConnectionLatencyMs |
音声合成接続の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されてから、HTTP/WebSocket 接続が確立された時点までの待機時間が測定されます。 バージョン 1.26.0 で追加されました。 |
| SpeechServiceResponse_SynthesisNetworkLatencyMs |
音声合成ネットワークの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、ネットワークのラウンド トリップ時間が測定されます。 バージョン 1.26.0 で追加されました。 |
| SpeechServiceResponse_SynthesisServiceLatencyMs |
音声合成サービスの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、サービスの処理時間が測定され、オーディオの最初のバイトが合成されます。 バージョン 1.26.0 で追加されました。 |
| SpeechServiceResponse_SynthesisBackend |
合成が完了したバックエンドを示します。 読み取り専用。音声合成の結果で使用できます。ただし、SynthesisStarted イベントの結果はバージョン 1.17.0 で追加されました。 |
| SpeechServiceResponse_DiarizeIntermediateResults |
中間結果に話者識別が含まれているかどうかを判断します。 |
| CancellationDetails_Reason |
取り消しの理由。 現在使用されていません。 |
| CancellationDetails_ReasonText |
取り消しテキスト。 現在使用されていません。 |
| CancellationDetails_ReasonDetailedText |
取り消しの詳細なテキスト。 現在使用されていません。 |
| AudioConfig_DeviceNameForCapture |
オーディオ キャプチャのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromMicrophoneInput を使用します。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。 |
| AudioConfig_NumberOfChannelsForCapture |
オーディオ キャプチャのチャネルの数。 内部使用のみ。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。 |
| AudioConfig_SampleRateForCapture |
オーディオ キャプチャのサンプル レート (Hz 単位)。 内部使用のみ。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。 |
| AudioConfig_BitsPerSampleForCapture |
オーディオ キャプチャの各サンプルのビット数。 内部使用のみ。 注: このプロパティ ID はバージョン 1.3.0 で追加されました。 |
| AudioConfig_AudioSource |
オーディオ ソース。 使用できる値は、"Microphones"、"File"、および "Stream" です。 バージョン 1.3.0 で追加されました。 |
| AudioConfig_DeviceNameForRender |
オーディオ レンダリングのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromSpeakerOutput を使用します。 バージョン 1.14.0 で追加されました。 |
| AudioConfig_PlaybackBufferLengthInMs |
再生バッファーの長さ (ミリ秒)、既定値は 50 ミリ秒です。 |
| AudioConfig_AudioProcessingOptions |
JSON 形式のオーディオ処理オプション。 |
| Speech_LogFilename |
ログを書き込むファイル名。 バージョン 1.4.0 で追加されました。 |
| Speech_SegmentationSilenceTimeoutMs |
検出された無音の継続時間 (ミリ秒単位)。 その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な認識結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって一貫して長すぎる、または短すぎる結果が得られる場合に役立ちます。 不適切に高い値または低いセグメント化タイムアウト値は、音声テキスト変換の精度に悪影響を与える可能性があります。このプロパティは慎重に構成する必要があり、結果の動作は意図したとおりに徹底的に検証する必要があります。 値は 、[100, 5000] ミリ秒の範囲内である必要があります。 |
| Speech_SegmentationMaximumTimeMs |
"時間" セグメント化戦略を使用する場合の話し言葉の最大長。 この設定を使用するには、Speech_SegmentationSilenceTimeoutMs の値を設定する必要があります。 音声フレーズの長さがこの値に近づくと、フレーズの無音タイムアウトに達するか、フレーズが最大長に達するまで、Speech_SegmentationSilenceTimeoutMsが減少し始めます。 値は 、[20000, 70000] ミリ秒の範囲内である必要があります。 |
| Speech_SegmentationStrategy |
音声フレーズがいつ終了し、最終的な認識結果を生成するかを決定するために使用される戦略。 使用できる値は、"Default"、"Time"、および "Semantic" です。 |
| Speech_StartEventSensitivity |
音声活動を検出した後、システムが潜在的な音声開始をどれだけ速く通知するかを制御します。 この設定は、基礎となる音声活動検出アルゴリズムを変更しません。 SpeechStartDetectedイベントを発生させるタイミング基準のみを調整します。 |
| Conversation_ApplicationId |
バックエンド サービスへの接続に使用される識別子。 バージョン 1.5.0 で追加されました。 |
| Conversation_DialogType |
接続するダイアログ バックエンドの種類。 バージョン 1.7.0 で追加されました。 |
| Conversation_Initial_Silence_Timeout |
リッスンの無音タイムアウト バージョン 1.5.0 で追加されました。 |
| Conversation_From_Id |
音声認識アクティビティで使用する ID から、バージョン 1.5.0 で追加されました。 |
| Conversation_Conversation_Id |
セッションの ConversationId。 バージョン 1.8.0 で追加されました。 |
| Conversation_Custom_Voice_Deployment_Ids |
カスタム音声展開 ID のコンマ区切りの一覧。 バージョン 1.8.0 で追加されました。 |
| Conversation_Speech_Activity_Template |
音声アクティビティ テンプレート。サービスによって生成された音声アクティビティのテンプレート内のプロパティにスタンプを付けます。 バージョン 1.10.0 で追加されました。 |
| Conversation_ParticipantId |
現在の会話の参加者識別子。 バージョン 1.13.0 で追加されました。 |
| Conversation_Request_Bot_Status_Messages |
|
| Conversation_Connection_Id |
|
| DataBuffer_TimeStamp |
Pull/Push オーディオ入力ストリームを使用する場合にクライアントによって書き込まれるデータ バッファーに関連付けられたタイム スタンプ。 タイムスタンプは、解像度が 90 kHz の 64 ビット値です。 これは、MPEG トランスポート ストリームのプレゼンテーション タイムスタンプと同じです。 バージョン 1.5.0 で追加された https://en.wikipedia.org/wiki/Presentation_timestamp を参照してください。 |
| DataBuffer_UserId |
Pull/Push オーディオ入力ストリームを使用するときにクライアントによって書き込まれるデータ バッファーに関連付けられているユーザー ID。 バージョン 1.5.0 で追加されました。 |
| PronunciationAssessment_ReferenceText |
発音評価用のオーディオの参照テキスト。 これと次の発音評価パラメーターについては、発音評価パラメーター 表を参照してください。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Create または PronunciationAssessmentConfig::SetReferenceTextを使用します。 バージョン 1.14.0 で追加されました。 |
| PronunciationAssessment_GradingSystem |
発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。 |
| PronunciationAssessment_Granularity |
発音評価の粒度 (Phoneme、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。 |
| PronunciationAssessment_EnableMiscue |
その他の計算を有効にするかどうかを定義します。 これを有効にすると、発音された単語が参照テキストと比較され、比較に基づいて省略/挿入でマークされます。 既定の設定は False です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。 |
| PronunciationAssessment_PhonemeAlphabet |
発音評価音素アルファベット。 有効な値は "SAPI" (既定値) と "IPA" です。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::SetPhonemeAlphabetを使用します。 バージョン 1.20.0 で追加されました。 |
| PronunciationAssessment_NBestPhonemeCount |
発音評価 nbest 音素数。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::SetNBestPhonemeCountを使用します。 バージョン 1.20.0 で追加されました。 |
| PronunciationAssessment_EnableProsodyAssessment |
プロソディ評価を有効にするかどうかを指定します。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::EnableProsodyAssessmentを使用します。 バージョン 1.33.0 で追加されました。 |
| PronunciationAssessment_Json |
発音評価パラメーターの json 文字列通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、PronunciationAssessmentConfig::Createを使用します。 バージョン 1.14.0 で追加されました。 |
| PronunciationAssessment_Params |
発音評価パラメーター。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.14.0 で追加されました。 |
| SpeechTranslation_ModelName |
音声翻訳に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
| SpeechTranslation_ModelKey |
このプロパティは非推奨です。 |
| KeywordRecognition_ModelName |
キーワード認識に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
| KeywordRecognition_ModelKey |
このプロパティは非推奨です。 |
| EmbeddedSpeech_EnablePerformanceMetrics |
埋め込み音声を使用するデバイスの機能を評価するために使用できる埋め込み音声パフォーマンス メトリックの収集を有効にします。 収集されたデータは、音声認識などの特定のシナリオの結果に含まれます。 既定の設定は "false" です。 すべての埋め込み音声シナリオからメトリックを使用できない場合があることに注意してください。 |
| SpeechSynthesisRequest_Pitch |
合成された音声のピッチ。 |
| SpeechSynthesisRequest_Rate |
合成された音声の速度。 |
| SpeechSynthesisRequest_Volume |
合成された音声の音量。 |
| SpeechSynthesisRequest_Style |
合成された音声のスタイル。 |
| SpeechSynthesisRequest_Temperature |
合成された音声の温度。 温度パラメーターは、音声が HD 音声の場合にのみ有効になります。 |
| SpeechSynthesisRequest_CustomLexiconUrl |
合成された音声のカスタム辞書 URL。 これにより、合成中に使用されるカスタム発音辞書へのURLが提供されます。 |
| SpeechSynthesisRequest_PreferLocales |
合成された音声の優先ロケール。 ロケール名を優先順にカンマで区切ったリスト。 |
| SpeechSynthesis_FrameTimeoutInterval |
合成された音声オーディオ フレーム間のタイムアウト間隔 (ミリ秒)。 この値が 10 秒を超える場合は、ハード フレーム タイムアウトとして使用されます。 a) 最新のフレームがこのタイムアウト間隔を超え、Real-Time Factor (RTF) がその最大値を超えた場合、または b) 最新のフレームがハード フレームタイムアウトを超えた後に経過した時間を超えた場合、音声合成タイムアウトが発生します。 |
| SpeechSynthesis_RtfTimeoutThreshold |
音声合成の最大 Real-Time 係数 (RTF)。 RTF は RTF = f(d)/d として計算されます。ここで f(d) は、継続時間 d の音声オーディオを合成するためにかかった時間です。 |