dslclib.src.speech_recognition module#

class dslclib.src.speech_recognition.OutputForSTTRecognition(type: Literal['interimresult', 'result'], result: str)#

ベースクラス: object

result: str#
type: Literal['interimresult', 'result']#
class dslclib.src.speech_recognition.STTRecognitionType(InterimResult: Literal['interimresult'] = 'interimresult', Result: Literal['result'] = 'result')#

ベースクラス: object

InterimResult: Literal['interimresult'] = 'interimresult'#
Result: Literal['result'] = 'result'#
class dslclib.src.speech_recognition.SpeechRecognitionClient(ip: str | None = None, port: int = 8888)#

ベースクラス: dslclib.src.base.BaseClient

Google Speech Recognition APIによる音声認識の結果をソケットから受け取るクライアント

パラメータ:
  • ip (str, optional) --

    ipアドレス.

    デフォルトはNoneであり,Noneが与えられた時,127.0.0.1(ローカルホスト)を指定し, もし,docker内でこのモジュールが立ち上がっていた場合,自動でそれが認識され,host.docker.internalを指定する.

    host.docker.internalは,docker内からローカルホストのポートに接続するために必要である.

  • port (int = 8888) -- ソケット通信を行うポート.

サンプル

>>> client = SpeechRecognitionClient()
ipがNoneだったため、127.0.0.1をipアドレスとして設定します。
>>> client
Socket(
    ip   = 127.0.0.1
    port = 8888
)
>>>
close() None#

ipアドレスのportへの接続を切る.

サンプル

>>> client = BaseClient()
>>> client.connect()
>>> client.close()
listen(interim: bool = True) dslclib.src.speech_recognition.OutputForSTTRecognition#

データがたまってからデータを出力するメソッド.

interimをTrueにすると、発話中でもその時点の認識結果を出力する.

interimをFalseにすると、発話終了の上での認識結果のみを出力する.

発話中における出力例 ('interimresult', 'あいう')

発話終了における出力例 ('result', 'あいうえお')

パラメータ:

interim (bool, default = True) -- Trueのときは、発話中でもその時点でたまった認識結果を出力する

戻り値:

(状態, 認識結果)

戻り値の型:

tuple[Literal["interimresult", "result"], str]

サンプル

>>> client = SpeechRecognitionClient()
>>> output = client.listen()
>>> output.result
こんにちは
>>> output["result"]
こんにちは
receive_line() str#

ソケットから受け取ったバイナリコードを文字列(utf-8)に変換するメソッド

戻り値:

received -- ソケット通信によって受け取った値を文字列に変換したもの

戻り値の型:

str