dslclib.src.speech_recognition module#
- class dslclib.src.speech_recognition.OutputForSTTRecognition(type: Literal['interimresult', 'result'], result: str)#
ベースクラス:
object
- result: str#
- type: Literal['interimresult', 'result']#
- class dslclib.src.speech_recognition.STTRecognitionType(InterimResult: Literal['interimresult'] = 'interimresult', Result: Literal['result'] = 'result')#
ベースクラス:
object
- InterimResult: Literal['interimresult'] = 'interimresult'#
- Result: Literal['result'] = 'result'#
- class dslclib.src.speech_recognition.SpeechRecognitionClient(ip: str | None = None, port: int = 8888)#
ベースクラス:
dslclib.src.base.BaseClient
Google Speech Recognition APIによる音声認識の結果をソケットから受け取るクライアント
- パラメータ:
ip (str, optional) --
ipアドレス.
デフォルトはNoneであり,Noneが与えられた時,127.0.0.1(ローカルホスト)を指定し, もし,docker内でこのモジュールが立ち上がっていた場合,自動でそれが認識され,host.docker.internalを指定する.
host.docker.internalは,docker内からローカルホストのポートに接続するために必要である.
port (int = 8888) -- ソケット通信を行うポート.
サンプル
>>> client = SpeechRecognitionClient() ipがNoneだったため、127.0.0.1をipアドレスとして設定します。 >>> client Socket( ip = 127.0.0.1 port = 8888 ) >>>
- close() None #
ipアドレスのportへの接続を切る.
サンプル
>>> client = BaseClient() >>> client.connect() >>> client.close()
- listen(interim: bool = True) dslclib.src.speech_recognition.OutputForSTTRecognition #
データがたまってからデータを出力するメソッド.
interimをTrueにすると、発話中でもその時点の認識結果を出力する.
interimをFalseにすると、発話終了の上での認識結果のみを出力する.
発話中における出力例 ('interimresult', 'あいう')
発話終了における出力例 ('result', 'あいうえお')
- パラメータ:
interim (bool, default = True) -- Trueのときは、発話中でもその時点でたまった認識結果を出力する
- 戻り値:
(状態, 認識結果)
- 戻り値の型:
tuple[Literal["interimresult", "result"], str]
サンプル
>>> client = SpeechRecognitionClient() >>> output = client.listen() >>> output.result こんにちは >>> output["result"] こんにちは
- receive_line() str #
ソケットから受け取ったバイナリコードを文字列(utf-8)に変換するメソッド
- 戻り値:
received -- ソケット通信によって受け取った値を文字列に変換したもの
- 戻り値の型:
str