smartivr 接口说明 (智能电话机器人话术开发接口)

使用指南

smartivr 为福州晋安区顶顶通软件有限公司开发的软件产品,受中华人民共和国著作权法保护,侵权必究

用户自己实现 httpAPI,机器人程序去调用这个接口,不是 机器人提供httpapi给用户调用。

  1. 外呼程序呼叫电话接通后,或者客户主动呼入接通后 机器人程序 向 webserver post 发送

    smartivr –> web

    {
    "calleeid": "8888", //被叫号码 对于自动外呼是是流程ID
    "callerid": "1500000", //主叫号码 对于自动外呼是被叫号码
    "origcallerid": "", //原始主叫 对于自动外呼是主叫号码
    "callid": "1fe74812-e376-4319-b335-3de1b494325c", //每个通话的唯一ID
    "errorcode": 0, //错误代码
    "flowdata": null, //流程数据
    "flowid": "abc", //流程ID
    "notify": "enter" //通知类型
    }
  2. webserver根据业务逻辑 返回 json数据 比如 下面的命令就是 启动后台ASR,并且播放一个声音

    smartivr <– web

    {
    "action": "start_asr", //第一个动作 start_asr是一个异步函数,只需要执行一次,启动后会一直进行VAD和ASR,直到调用sotp_asr
    "flowdata": "流程选择", //流程数据,类似浏览器的Cookie,机器人后续httpapi请求会把这个数据发送回来。
    "params": {
    "min_speak_ms": 100, //最小说话时间,默认值100,单位毫秒,说话时间小于这个值,会被认为是无效声音。
    "max_speak_ms": 10000, //最大说话时间,默认值10000,单位毫秒,说话时间超过这个值,就停止录音,直接提交ASR服务器识别。
    "min_pause_ms": 300, //最小停顿时间,默认值300,单位毫秒,默认值用户停顿时间超过这个值,会提交到ASR识别。识别完成后发送asrprogress事件。 完成后的意思是 ASR服务器可能 300-800ms才返回识别接口。
    "max_pause_ms": 600, //最大停顿时间,默认值600,单位毫秒,用户停顿时间超过这个值,认为一句话说完,所有识别完成后发送asrmessage事件。所有识别完成后的意思是,所有提交到asr服务器的识别结果都返回了。 注意 min_pause_ms 必须大于min_pause_ms。
    "pause_play_ms": 200, //触发暂停放音时间,默认值0:就是禁用自动暂停,单位毫秒,建议设置200-1000,用户说话时间超过这个值,就暂停放音。 有时候用户一直持续说话,中间没停顿,所以还没提交到ASR服务器识别,不能使用关键词打断,可以先暂停放音。
    "threshold": 0, //VAD阈值,默认0,建议不要设置,如果一定要设置,建议 2000以下的值。
    "recordpath": "", //录音文件路径,如果不设置:就会使用配置文件中的路径,每天生成一个文件夹,如果设置了,就会使用这个参数中的目录,文件格式是 recordpath/被叫号码_Unique-ID_序号.wav
    "volume": 50 //音量标准化的值。0-100,0不使用音量标准化,其他值 音量把录音音量调整到这个值后,再提交ASR识别。
    },
    "after_action": "playback",
    "after_ignore_error": false, //如果action动作(start_asr)执行失败是否继续执行after_action(playback)。
    "after_params": {
    "prompt": "您好,欢迎致电顶顶通软件,这里是电话机器人演示系统,请说要进入的测试流程,比如,房产!", //可以直接播放声音文件。规则就是如果最后4个字是.wav,就直接播放wav文件。
    "wait": 5000, //单位毫秒,放音结束后等待时间。用于等待用户说话。
    "retry": 0 //重播次数。就是wait时间内用户不说话,就重新播放声音。
    }
    }
  3. 机器人程序执行 “action”:”start_asr” 开始后台ASR识别,然后执行”after_action”: “playback”开始播放声音文件。

    • 当用户说话后,机器人发送 识别进度,也就是用户暂停说话时间超过 min_pause_ms

      smartivr –> web

      {
      "asrelapse": 391, //asr识别服务器消耗的时间,单位毫秒。
      "asrtextall": "1.识别结果;", //包含之前停顿的识别结果的组合。 格式是 录音序号.识别结果;这样组合多个识别结果。
      "asrtype": "aiui", //本次使用那个asr识别
      "calleeid": "8888abc",
      "callerid": "abc",
      "callid": "1aec14af-d6a8-49e4-96fc-fb5f7cfdb893",
      "errorcode": 0, //asr返回错误,0无错误。
      "flowdata": "流程选择",
      "flowid": "abc",
      "message": "识别结果",
      "notify": "asrprogress_notify",
      "recordindex": "1", //录音序号
      "recordfile": "", //录音文件
      "recordms": 931, //录音时间,单位毫秒。
      "volumegain": 5.95330699999 //音量标准化放大或者缩小的倍数。
      }
    • webserver根据业务逻辑返回是否需要暂停放音

      smartivr <– web

      {
      "action": "console_playback",
      "flowdata": "流程选择",
      "params": {
      "command": "pause"
      }
      }
    • 当用户说完一整句话,机器人发送 完整的识别结果,也就是用户暂停说话时间超过 max_pause_ms

      smartivr –> web

      {
      "calleeid": "8888abc",
      "callerid": "abc",
      "callid": "ea6d1235-aaab-4251-b03b-3b53ca32e00d",
      "errorcode": 0,
      "flowdata": "流程选择",
      "flowid": "abc",
      "message": "1.你好;2.什么事;",
      "notify": "asrmessage_notify",
      "speakms": "1162" //整句话的说话时间,包含暂停时间
      }
    • webserver根据业务流程,执行话说逻辑,播放声音。

      smartivr <– web

      {
      "action": "playback",
      "flowdata": "回答",
      "params": {
      "prompt": "先生你好,请问你最近需要买房吗",
      "wait": 3000,
      "retry": 2
      }
      }
    • 当用户一直不说话,声音播放完成并且等待时间超过,机器人发送 playback_result

      smartivr –> web

      {
      "calleeid": "8888abc",
      "callerid": "abc",
      "callid": "35bca774-5b3e-4129-a5e7-1c3c86605071",
      "errorcode": 0,
      "flowdata": "",
      "flowid": "abc",
      "message": "FILE PLAYED",
      "notify": "playback_result"
      }
    • webserver根据业务流程发送 继续放音,提示用户回答问题。

      smartivr <– web

      {
      "action": "playback",
      "flowdata": "提示选择流程",
      "params": {
      "prompt": "请问你要进入哪个测试流程,比如,房产",
      "wait": 3000,
      "retry": 2
      }
      }
  4. webserver 结束流程,播放一个提示声音,结束通话。

    smartivr <– web

    {
    "action": "playback",
    "suspend_asr": true, //播放提示音时候暂停ASR识别
    "flowdata": "",
    "params": {
    "prompt": "谢谢你的使用,再见"
    },
    "after_action": "hangup",
    "after_ignore_error": true,
    "after_params": {
    "cause": 0,
    "usermsg": ""
    }
    }

faq

asrprogress_notify 的 asrmessage_notify 区别

简单点说asrprogress_notify就是用来控制是否需要打断,asrmessage_notify用来控制是否需要播放一个新的声音。

  • asrprogress_notify 是识别进度通知,只能返回noop或者console_playback(pause)暂停放音,console_playback(resume)恢复放音。不能执行其他动作。asrprogress_notify后面可能再次出现asrprogress_notify,用户一整句话说完了,就会发送 asrmessage_notify 通知。
  • asrmessage_notify 是识别完成通知,可以执行 playback 操作。播放一个新的声音,也可以noop,等其他任意动作。
  • playback_result 声音播放完了,等待时间也超过了,还没检测到声音就发送这个通知。

console_playback(resume)恢复放音什么时候执行。

用户说话超过 pause_play_ms ,就会自动暂停放音,asrprogress_notify通知,ASR识别返回的是空,就是没识别到有效文本的时候,就可以返回 console_playback(resume) 来恢复放音了。
可能不怎么好理解, 就是 start_asr 的 pause_play_ms 参数,可以设置,检测到用户说话时间超过这个参数,就自动停止放音, 如果是噪音的话,asrprogress_notify返回的是无效文本,就可以利用asrprogress_notify来恢复这个给自动暂停的放音。

playback_result 什么时候有这个通知

执行 playback后,播放完成并且等待超时,就会发送playback_result 通知。

  • 如果识别到用户说话,在 asrmessage_notify 事件中返回命令playback,播放了一个新的声音,那么上个playback会给强制终止(上次的playback_result就不会发送了。),新的播放完成时,才会发送playback_result。
  • 如果识别到用户说话,在 asrmessage_notify 事件中返回命令noop,或者console_playback(resume),没去播放新的声音,那么还会发送playback_result 通知的。
  • 如果asrprogress_notify 返回 console_playback(pause)暂停了播放,asrmessage_notify没有返回console_playback(resume)恢复放音,那么就一直卡着。 这样的用法是错误的,asrmessage_notify 如果没有返回playback播放新的声音,就必须console_playback(resume)恢复放音。

自动打断(就是检测到声音,就自动停止放音)

start_asr 有一个参数 pause_play_ms,demo是200, 就是检测到说话声音持续时间时间超过pause_play_ms,就自动暂停放音。如果你不需要这个功能设置为0, 如果你启用了这个功能,asrmessage_notify通知每播放一个新的声音就必须要恢复放音console_playback(resume)。否则机器人放音一直暂停着(收不到playback_result通知)。

业务打断(就是流程停止放音,或者播放一个新的声音实现打断。)

asrprogress_notify返回 console_playback(pause),或者asrmessage_notify返回播放新的声音,就会停止播放当前的声音。

怎么禁用打断功能

  1. 机器人放音的时候可以识别用户说话,但是不打断机器人放音:playback的allow_interrupt设置-1,关闭自动打断。asrprogress_notify返回 noop。 asrmessage_notif
    如果playstate等于false(当前没放音),执行业务逻辑播放新的声音。asrmessage_notif如果playstate等于true(当前在放音,不处理),返回noop,并且把识别结果记录到flowdata,等paly_result的时候再处理识别结果。如果paly_result的时候检测放音过程是否有识别结果,如果有执行业务逻辑处理流程,如果没有返回wait.

  2. 放音的时候直接暂停asr, 自然也就不会打断了。playback的block_asr设置为-1.本次放音,禁用了asr,就可以了。

噪音打断怎么解决(升级到5.0使用噪音人声识别可以解决噪音问题)

如果要完全避免噪音打断可以把自动打断关闭,使用关键词打断。如果要求不高可以把pause_play_ms设置大些,比如1000。playback新加了一个自动打断控制参数,可以设置本次机器人放音多久才启用自动打断。

怎么实现关键词打断

  • start_asr的pause_play_ms 设置 0 ,关闭自动打断
  • asrprogress_notify 的识别结果如果是关键词 返回 console_playback(pause),如果不是关键词 返回 noop
  • asrmessage_notify 的整句话识别结果如果匹配,直接播放新的声音文件,执行新的业务流程,如果不匹配, 判断playstate(户说话结束的时候,机器人是否也放音完成),playstate为true返回console_playback(resume),playstate为false,执行playback_result通知一样的流程。
  • playback_result 收到这个通知,说明声音播放完成,等待用户说话超时,asrstate为true是表示用户当前已经在说话, 可以返回noop,否则必须播放一个声音,提示用户说话。

多种打断方案集合使用流程

  1. start_asr 开始asr,设置 pause_play_ms 为 200-1000之间 (设置自动打断时间)
  2. playback wait设置 3000-5000,并且设置allow_interrupt动态修改自动打断时间,
  3. asrprogress_notify 检查是否有关键词有关键词返回console_playback(pause),没关键词返回 noop
  4. asrmessage_notify 根据识别结果,playms(用来判断 是否 机器人刚说话,用户也开始说话) ,playstate(用来判断 用户说话结束的时候,机器人是否也放音完成),等条件返回console_playback(resume)继续放音,或者返回playback播放一个新的声音。
  5. playback_result asrstate为true是表示用户当前已经在说话, 可以返回noop,否则必须播放一个声音,提示用户说话。

怎么实现放音的时候暂停ASR(就是机器人说话的时候,不识别用户说话,也不打断机器人说,类似单工模式一个人说一个人听。)

2.3版本playback添加了一个参数block_asr,playback的时候把block_asr设置为-1,就可以了。

机器人刚放音,用户也开始说话,或者用户刚开始说话机器人也开始放音,怎么解决。

asrprogress_notify和asrmessage_notify 新加了一个参数 playms,playms意思是用户开始说话时机器人放音时间(如果大于0就是放音时间),0就是机器人没在放音。
asrmessage_notify 的参数 playstate 表示用户说话结束的时候(发送asrmessage的时候)机器人是否在放音。
由此可以推断出 asrmessage_notify 的时候 如果 playms>0并且<2000(自己定义一个合适的),说明机器人刚开始放音用户就开始说话了。
如果 playms等于0,playstate等于true,说明用户刚开始说话,机器人也开始放音了。

超时的时候,用户刚好开始说话了怎么办

wait_result 和 playback_result 新加了1个参数 asrstate为true是表示用户当前已经在说话, 可以返回noop。否则必须返回wait,或者playback.

性别识别(男性女性声音识别)

asrprogress_notify 加了一个参数 gender 0未识别 1女 2男 3可能女 4可能男 其他系统错误

噪音人声识别(mod_vad 5.0开始支持)

如果有噪音识别授权 start_asr的filter_level 设置为 0.6:一句话结束判断声音是否是噪音。 0.7: 噪音的时候不掉用ASR。 0.8:VAD算法集成噪音和人声识别。 在0.6和0.7时设置asrprogress_notify 参数 noise 0:人声 1:噪音 -1:未启用。

怎么获取录音文件名

  • asrprogress_notify 通知的 recordfile 字段就是本次识别的录音文件。
  • asrmessage_notify 通知的 message 格式是 录音序号.识别结果; 其实通过这个录音序号就知道录音文件名的。因为录音文件名规范是 recordpath/callerid_callid_recordindex.wav 这样固定的格式的。 你可以把被叫号码,callid,录音序号组合一下就知道这个识别结果关联的文件名了。

一句话怎么有时候有多个录音文件

因为用户说话停顿时间超过 min_pause_ms ,就提交ASR识别(如果配置了保存录音会生成一个录音文件),识别结果通过 asrprogress_notify 通知业务程序。
停顿时间超过 max_pause_ms 认为说完一整句话,就发送asrmessage_notify通知给业务程序。
如果说一句话的过程,用户多次停顿,并且时间在 min_pause_ms和max_pause_ms之间,就会产生多个录音文件。
对接暂时界面上,好比我们微信聊天,对方说2句你回复1句是完全正常的情况,网页上展示2个或者多个录音文件就可以。
如果你想尽量的不要出现多次asrprogress_notify,可以把 min_pause_ms 设置大些,比如 min_pause_ms和max_pause_ms都设置800。这时候用户停顿800,才提交ASR,ASR识别的时候如果用户不说话,识别完成马上就发送asrmessage_notify通知,如果识别过程,用户又说话了,还是需要等新的ASR识别结果返回后,在发送asrmessage_notify,就出现多个asrprogress_notify了。

怎么知道主叫挂断还是被叫挂断

leave新加了一个参数 hangup_disposition recv_bye:对方先挂机, send_bye:机器人先挂机。

怎么把通话转接给分机或者手机

bridge就是实现这个功能的,可以把用户电话转接给分机或者客服手机,具体看bridge和bridge_result说明。

机器人一直不说话

流程出现这个问题一般是 playback_result通知asrstate等于false时没播放新的声音,或者asrmessage_notify没匹配关键词,并且playstate等于false的时候没播放新的声音。 playback_result通知asrstate等于false时和asrmessage_notify通知playstate等于false,这2个情况必须播放一个声音或者执行wait, 千万不要返回noop或者console_playback。

after_action 注意问题

  1. 例如 after:sotp_asr after_action:bridge, 如果没有先执行start_asr,那么sotp_asr就会失败,如果没设置after_ignore_error:true,就不会执行bridge。 注意点 after_ignore_error:true,才会不管第一个指令是否成功都执行第二个指令。
  2. 例如 after:sotp_asr after_action:bridge,sotp_asr指令还没执行的时候,可能出现asrmessage_notify通知,这样就破坏了组合指令的执行,设置 suspend_asr:true,系统就不会把 asrmessage_notify 通知发送给接口,避免 after和after_action之间出现asrprogress_notify和asrprogress_notify 通知干扰。

执行palyabck之后,收到了上一个palyback放音的识别结果,怎么区分。

3.0版本 asrprogress_notify 的 asrmessage_notify 通知加了一个lag参数,lag为true,就是上一个动作的识别结果。

场景说明,用户先说,哪里,过了1秒再说,哦不需要了。 smartivr先通知 “哪里”的识别结果,流程返回playback,这个声音文件还没开始播放, smartivr又通知 “哦不需要了”的识别结果。 “哦不需要了”的识别结果的lag会为true,流程判断lag就可以处理这样的情况了。

接口说明

注意:请求和返回都采用JSON格式,编码为utf8,所有参数区分大小写,数字和字符串类型注意区分,参数未说明数字类型就是字符串类型。

请求通用参数

  • calleeid 通话被叫号码 自动外呼是流程ID(可以用来区分流程)
  • callerid 通话主叫号码 自动外呼是被叫号码
  • origcallerid 通话原始主叫号码 自动外呼是主叫号码
  • callid 通话ID
  • notify 通知类型
    • enter 进入流程 比如来电应答后,外呼接通后进入流程
    • leave 离开流程 比如挂机,转移,直接转接等。
    • getdtmf_result 获取按键(dtmf)结果
    • playback_result 放音结果
    • bridge_result 转接结果
    • start_asr_result 后台ASR启动结果
    • stop_asr_result 后台ASR停止结果
    • asrprogress_notify ASR识别进度
    • asrmessage_notify ASR识别结果
    • wait_result 等待超时
    • transfer_result 转接完成
  • flowdata 流程数据
  • flowid 流程ID(可以设置为外呼任务ID)
  • errorcode 错误代码 无错误时不存在这个值或者等于0
  • message 自定义消息
  • duration 持续时间,enter开始计时,可以用于控制对话总时间,比如持续时间超过3分钟就挂断通话。
  • duration 持续时间,enter开始计时,可以用于控制对话总时间,比如持续时间超过3分钟就挂断通话。
  • hangup 通话是否挂断,true已经挂断,false,未挂断。比如playback_result,wait_result,可以见检测一下通话是否挂断,如果已经挂段直接返回noop就可以。(注意发现FS在高并发下有BUG,会乱送CHANNEL_HANGUP消息,导致这个属性不准,请忽略这个属性,如果要解决放音的时候用户挂机问题,要结合 “errorcode”:-1, “message”:”PLAYBACK ERROR”,”notify”:”playback_result” 一起判断)

响应通用参数

  • action 执行的动作名
    * getdtmf   获取DTMF按键
    * playback  播放声音
    * bridge    转接到电话号码
    * deflect   转移(SIP REFER )
    * hangup    挂断通话
    * noop      无操作,就是不需要执行任何动作。
    * start_asr 启动后台ASR
    * stop_asr  停止后台ASR
    * console_playback 控制放音
    * wait      等待 比如playback的时候设置suspend_asr关闭了ASR功能放音结束后可以用 wait + suspend_asr开启ASR功能,并且设置一个超时时间。
    * transfer  转移,转移到指定的dialplan ,需要配合FreeSWITCH的dialplan使用
    * redirect  重定向接口地址(4.3.2以上版本支持,只能enter通知时回复)
    
  • params action的参数,具体参考具体动作。
  • after_ignore_error 如果action执行失败,是否继续执行after_action
  • after_action 可选参数 JOSN对象。用于连续执行2个动作,比如playback后执行挂机。
  • after_params 可选参数,JSON对象。after_action的参数内容。
  • flowdata 可选参数,JOSN对象。动作执行完成的notify请求里会把这个数据发送回来(用来携带流程数据 类似cookie)。
  • suspend_asr 可选参数,BOOL,如果之前已经执行了start_asr,通过通过这个参数,来暂停停用ASR,比如希望本次放音(playback),不要执行ASR,就可以把这个参数设置true. 注意:2.3版本后 playback添加了一个block_asr的参数可以更灵活的控制暂停识别。建议使用block_ack参数代替suspend_asr。

notify 描述

enter 进入流程 比如来电应答后,外呼接通后进入流程

{"calleeid":"996","callerid":"linphone","callid":"e56aff85-f8e9-4385-a67b-b7881329860d","notify":"enter"}

leave 离开流程 比如挂机(hangup),deflect,transfer。

{"calleeid":"996","callerid":"linphone","callid":"ceff27c7-fcd9-407c-9f9f-9ddea1a8aa5b","flowdata":"","notify":"leave"}

  • hangup_disposition recv_bye:对方先挂机, send_bye:机器人先挂机。

asrprogress_notify

说话停顿min_pause_ms时间后返回的识别结果。

  • asrtype 本次使用那个asr识别
  • message 本次asr识别结果
  • asrtextall 包含之前停顿的识别结果的组合。 格式是 录音序号.识别结果;这样组合多个识别结果。
  • asrelapse asr识别服务器消耗的时间,单位毫秒。
  • errorcode asr返回错误,0无错误。
  • volumegain 音量标准化放大或者缩小的倍数。
  • recordms 录音时间,单位毫秒。
  • recordindex 录音序号
  • recordfile 录音文件
  • gender 性别识别 0未识别 1女 2男 3可能女 4可能男 其他系统错误 每个电话只识别前3句话。
  • noise 0人声 1噪音 -1未启用
  • playms 检测到说话声音起点时播放声音时间,0没放音 ,其他放音时间
  • lag 布尔类型 true:本次识别结果是上一个动作的时候产生的,具体看faq lag说明

    asrmessage_notify

说话停顿max_pause_ms时间后返回的真句话的识别结果。

  • message 整句话的识别结果。 格式是 录音序号.识别结果;这样组合多个识别结果。

  • speakms 整句话的说话时间,包含暂停时间

  • playms 检测到说话声音起点时播放声音时间,0没放音 ,其他放音时间

  • playstate 说话结束的时候(发送asrmessage的时候)是否还在放音。

  • quiescems 如果playstate 为false时会设置这个值(smartivr 5.13开始支持)放音停止时到当前的时间。

  • playpause 如果playstate为true的时候会这则这个值(smartivr 5.13开始支持)是否暂停了放音(比较自动打断)。

  • lag 布尔类型 true:本次识别结果是上一个动作的时候产生的具体 看faq lag说明。

getdtmf_result

获取DTMF返回

  • message 获取到的DTMF按键内容
  • errorcode 错误代码
  • terminator 结束符
  • result 返回原因 success:按键个数等于max,或者输入结束符。timeout:按时返回

playback_result

{"calleeid":"996","callerid":"linphone","callid":"4e11935d-127f-45d0-b395-9d6aa4d3430d","errorcode":0,"flowdata":""message":"FILE PLAYED","notify":"playback_result"}

  • errorcode 0 播放完成,其他播放错误
  • message 错误信息。
  • asrstate 当前用户是否在在说话
  • bridge_result

    转接结束,转接失败,或者转接成功通话结束才收到这个通知。收到这个通知后请挂断通话(返回 hangup),也可以继续执行asr流程。
    {"calleeid":"996","callerid":"linphone","callid":"d0a3e9a8-2ce2-42e3-8fa7-55c5eb15326d","errorcode":480,"flowdata":"","hangupcause":"Temporarily Unavailable","message":"NO_USER_RESPONSE","notify":"bridge_result"}

  • errocde sip返回的错误代码 ,0转接成功,

  • message 结果描述
  • hangupcause SIP挂断原因

transfer_result

{"calleeid":"8888","callerid":"linphone","callid":"1811135d-fae2-4550-978c-f5dd972a1483","errorcode":0,"flowdata":"","flowid":"","message":"_none_","notify":"transfer_result"}

转移到其他流程完成,注意电话挂断后才会发送 leave

stop_asr_result

停止后台asr完成

calleeid":"8888","callerid":"linphone","callid":"e757f1c1-c890-4b03-bced-dfdf84fd2419","errorcode":0,"flowdata":"","flowid":"","message":"SUCCEED","notify":"stop_asr_result"}

wait_result

等待超时

  • message 不使用
  • asrstate 当前用户是否在在说话

action 描述

start_asr

start_asr 是一个异步函数,只需要执行一次,启动后会一直进行VAD和ASR,直到调用sotp_asr

  • min_speak_ms 最小说话时间,默认值100,单位毫秒,说话时间小于这个值,会被认为是无效声音。
  • max_speak_ms 最大说话时间,默认值10000,单位毫秒,说话时间超过这个值,就停止录音,直接提交ASR服务器识别。
  • min_pause_ms 最小停顿时间,默认值300,单位毫秒,默认值用户停顿时间超过这个值,会提交到ASR识别。识别完成后发送asrprogress事件。 完成后的意思是 ASR服务器可能 300-800ms才返回识别接口。
  • max_pause_ms 最大停顿时间,默认值600,单位毫秒,用户停顿时间超过这个值,认为一句话说完,所有识别完成后发送asrmessage事件。所有识别完成后的意思是,所有提交到asr服务器的识别结果都返回了。 注意 max_pause_ms 必须大于min_pause_ms。
  • pause_play_ms 触发暂停放音时间,默认值0,就是禁用自动打断,单位毫秒,建议设置200-1000,用户说话时间超过这个值,就暂停放音。 有时候用户一直持续说话,中间没停顿,所以还没提交到ASR服务器识别,不能使用关键词打断,需要自动暂停放音。playback的allow_interrupt可以动态调整这个值。
  • threshold VAD阈值,默认0,建议不要设置,如果一定要设置,建议 2000以下的值。
  • recordpath 录音文件路径,如果不设置(使用配置文件设置录音目录(smartivr.json),),如果设置了会保存录音文件到这个目录, 录音文件名规范是 recordpath/callerid_callid_recordindex.wav。
  • volume 音量标准化的值。0-100,0不使用音量标准化,其他值 音量把录音音量调整到这个值后,再提交ASR识别。
  • filter_level 防止干扰等级。0-1.0之间,无特殊要求设置为0。如果有噪音识别授权 0.6:一句话结束判断声音是否是噪音,通过asrprogress事件的noise标识。 0.7: 噪音的时候不掉用ASR。 0.8:VAD算法集成噪音和人声识别。
  • asr_configure_filename asr配置文件名。可以不同呼叫使用不同的ASR配置。不设置就是使用默认配置(smartivr.json)
start_asr使用的配置文件

linux /etc/smartivr.json,windows freeswitchconsole.exe同一个目录 ,具体看配置说明

playback

播放一个声音文件

  • prompt 声音内容wav文件(只支持8000hz,16位,单声道)或者文本。prompt 提示文本(如果最后4个字是.wav,就是录音文件放音,否则会调用TTS生成声音文件)。同样的文字TTS只转换一次,后续会使用缓存的文件
  • wait 单位毫秒,放音结束后等待时间。用于等待用户说话。
  • retry 重播次数。就是wait时间内用户不说话,就重新播放声音。
  • block_asr 本次放音是否暂停ASR,(也就是关闭打断,同时不识别用户说话)
    • -1 放音的时候不识别,进入等待的时候开启识别,比如 playback(file=”1.wav”,wait=5000) 就是播放1.wav的时候不识别,进入等待(5000毫秒)的时候开始识别用户说话。
    • 0 禁用这个参数,不改变ASR状态。
    • 大于0 单位毫秒,放音前面多少秒不识别。 playback(file=”1.wav”,wait=5000,block_asr=3000) 假如1.wav长度10秒,就是1.wav播放3秒后启动识别,前3秒忽略用户说话。
  • tts_configure_filename tts配置文件名(绝对路径),不设置会使用默认smartivr.json.
  • allow_interrupt 本次放音是否允许自动打断,0使用start_asr的pause_play_ms参数,,-1禁用自动打断(忽略start_asr->pause_play_ms参数),大于0就是覆盖start_asr->pause_play_ms参数设置。 默认自动打断时间是 start_asr->pause_play_ms参数指定的。注意:这个只是动态修改pause_play_ms的参数,对于业务控制的打断(暂停放音)没作用。
  • block_interrupt 放音前面多少毫秒内禁止自动打断(smartivr 5.1.3 update 20230323开始支持) 。
多文件或者TTS和录音文件混合放音

prompt 使用数组方式就可以,比如

[
"/var/wav/1.wav",
"tts文字转声音",
"/var/var/2.wav"
]

sotp_asr

:{"action":"stop_asr","flowdata":"\u8bed\u97f3\u8bc6\u522b"}

停止后台ASR。

console_playback

用于播放控制,用户说话开始,先暂停播放,如果说的是无效声音,可以恢复播放。

  • command
    • pause 暂停播放
    • resume 恢复播放
    • stop 停止播放

bridge 转接电话

{"action":"bridge","flowdata":"","params":{"number":"sofia\/external\/a8008@sip.ddrj.com:16080","callerid":"","gateway":"","prompt":"\u6b63\u5728\u8f6c\u63a5\u4e2d\uff0c\u8bf7\u7b49\u5f85","background":"wating.wav"}}

  • number 被叫号码,如果gateway没设置,必须是完整呼叫串类似:sofia/external/电话号码@网关Ip
  • callerid 可选参数 主叫号码(对方看到的来电显示)
  • gateway 可选参数 网关名字,如果注册模式也可以直接 user/分机号 这样的格式。
  • background 可选参数 背景音乐
  • prompt 可选参数 提示文本 prompt 提示文本(如果最后4个字是.wav,就是录音文件放音,否则会调用TTS生成声音文件)。
  • timeout 可选参数 设置转接超时。

注意 请先执行 stop_asr,不然转接后还会继续进行语音识别

hangup 挂机

{"action":"hangup","params":{"usermsg":"not found notify"}}

noop 不需要执行任何动作时可以返回这个,比如(leave,asr_progress 通知可以返回noop)

{"action":"noop","params":{"usermsg":""}}

  • usermsg 可选参数 里面可以放置调试信息,smartivr会打印到日志文件。

deflect 执行后会直接离开流程,收到 leave 通知

{"action":"deflect","flowdata":"","params":{"number":"1001"}}

  • number 要转移的目的地(由呼叫方处理) 即: SIP REFER 的 URI。

getdtmf 接收用户按键

{"action":"getdtmf","flowdata":"","params":{"prompt":"","invalid_prompt":"","min":0,"max":128,"tries":1,"timeout":5000,"digit_timeout":3000,"terminators":"#"}}

  • min [数字] 最少按键个数(minimum value of 0) ,注意最小和最大按键个数只有放音的按键才行,等待时候按键达到最小按键就返回了。如果最小按键设置为0,那么就不会等待按键,放音完成就返回。
  • max [数字] 最多按键个数(maximum value of 128)
  • tries [数字] 提示音播放次数
  • timeout [数字] 等待按键最大时间,声音播放结束开始算起。
  • terminators 结束输入按键,默认是#。
  • prompt 提示音
  • invalid_prompt 输入错误提示音
  • regexp 输入按键规则(正则表达式)
  • digit_timeout [数字] 按键超时时间,如果超时没有新按键,就认为输入完成。

transfer 执行后,要等电话挂断才会收到 leave 通知

action":"stop_asr","flowdata":"\u8bed\u97f3\u8bc6\u522b","after_action":"transfer","after_ignore_error":false,"after_params":{"destnumber":"test","dialplan":"XML","context":"default"}}

  • destnumber 要转移的目的地
  • dialplan 默认XML
  • context 默认default

注意 请先执行 stop_asr,不然还是继续进行语音识别

wait 等待

{"action":"wait","flowdata":"","params":{"timeout":1000}}

  • timeout 数字型 单位毫秒

redirect 重定向接口地址

(4.3.2以上版本支持,只能enter通知时回复,会对新的接口地址重新发送enter,flowdata如果不为空,会使用返回的flowdata,如果空,使用默认的)

{"action":"redirect","flowdata":"","url":"新接口地址"}

  • url 新的接口地址

流接口支持(3.0版本开始支持)

流接口是VAD检测到开始说话就把语音流直接提交到 ASR 进行实时识别,这样识别速度比HTTP接口更实时。流接和http接口asrprogressnotify 、asrmessagenotify 通知参数有些差异,本文档将描述这些差异。

启用流接口

start_asr的asrconfigurefilename参数设置为 stream:127.0.0.1:9988,就可以了,格式是 stream:流识别代理服务器IP:端口。
流接口不支持男女识别,start_asr的volume 参数不会使用。

asrprogress_notify (流接口 每说1-2个字 就会发出 asrprogress_notify 通知。)

{“asrtype”:”stream”,”calleeid”:”8888”,”callerid”:”1000”,”callid”:”2df6b327-a8ef-416d-9504-721c5d71ce35”,”duration”:15,”errorcode”:0,”flowdata”:null,”flowid”:””,”hangup”:false,”message”:”你”,notify”:”asrprogress_notify”,”origcallerid”:”1000”,”playms”:0}

{“asrtype”:”stream”,”calleeid”:”8888”,”callerid”:”1000”,”callid”:”2df6b327-a8ef-416d-9504-721c5d71ce35”,”duration”:15,”errorcode”:0,”flowdata”:null,”flowid”:””,”hangup”:false,”message”:”你好”,notify”:”asrprogress_notify”,”origcallerid”:”1000”,”playms”:0}

比http接口 少了以下参数。
asrtextall
asrelapse
errorcode
volumegain
recordms
recordindex
recordfile
gender
noise

  • 录音文件http接口是 asrprogressnotify 通知的时候生成录音文件。流接口是 asrmessagenotify 通知的时候生成录音文件。
  • 识别结果,http接口是一段话通知一次识别结果,流接口是1-2个字通知一次识别结果。

asrmessage_notify

{“calleeid”:”8888”,”callerid”:”1000”,”callid”:”2df6b327-a8ef-416d-9504-721c5d71ce35”,”duration”:17,”errorcode”:0,”flowdata”:null,”flowid”:””,”hangup”:false,”message”:”你好?,”notify”:”asrmessage_notify”,”origcallerid”:”1000”,”playms”:0,”playstate”:false,”recordfile”:”./asr/20190531/1000_2df6b327-a8ef-416d-9504-721c5d71ce35_1.wav”,”speakms”:1285}

  • 加了recordfile参数
  • message参数没有序号。

人工监听和接管(3.02版本开始支持)

就是坐席可以监听机器人和客户对话,通过按DTMF*,可以直接接管机器人直接和客户对话。

监听

{“action”:”eavesdrop”,”flowdata”:{“flowtype”:”default”},”params”:{“dialstring”:”user\/1001”,”callerid”:”8888”},”after_action”:”playback”,”after_ignore_error”:true,”after_params”:{“prompt”:”开始呼叫分机实施监听,机器人流程可以继续执行”}}

action:eavesdrop,params.dialstring:这个是一个拨号串,分机例子:user/1000,外线例子:sofia/external/电话号码@vosip
系统会呼叫这个电话,电话接通后,就处于监听模式,听到机器人和用户对话。

是否已经开始监听成功,没有事件通知,如果需要知道是否监听成功,请使用sip.js,sipml5,或者sip客户端,接到电话去反馈结果。

如果需要分机接通后自动接管eavesdrop动作添加一个参数 “skip_eavesdrop”:true (smartivr 4.8.5 开始支持)

如果需要分机接通后,等待机器人当前放音完成时自动接管eavesdrop动作添加一个参数 “auto_bridge”:1或者2,模式1:放音暂停时就自动接管,模式2:放音完成时才自动接管。(smartivr 5.1.2 开始支持),如果设置了skip_eavesdrop,这个参数会给忽略。

人工接通后对人工端也开启实时质检 (smartivr 5.13版本开始支持) 添加了一个参数 asrparam:{“notify_url”:”http://ip/asrnotify",其他参看start_asr动作文档},可以把坐席端ASR识别结果通知到URL。用户端ASR继续通过samrtivr接口通知,返回noop就可以。

接管

在监听模式,按DTMF *,就进入接管模式。

{“calleeid”:”8888”,”callerid”:”1000”,”callid”:”f01c16f1-0096-490e-80fa-7d32812580b6”,”duration”:56,”errorcode”:0,”flowdata”:{“flowtype”:”default”},”flowid”:””,”hangup”:false,”lag”:false,”notify”:”bridge_notify”,”origcallerid”:”1000”}

进入接管模式 ,会发送”notify”:”bridge_notify”通知,直接返回 action:noop就可以了。这时停止了ASR识别和机器人放音,直到电话挂断,发送 action:levea, 注意进入接管模式不能返回机器人对话的。