如何让董宇辉不下班?(3)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
接着,就可以进入接入语音服务的阶段了。 还是以实时语音识别服务为例。在设置完成应用的鉴权信息之后,第一步是参考支持语言列表LANGUAGE,创建intent,用于设置实时语音识别参数。mSpeechRecognizer.getLanguages(newMLAsrRecognizer.LanguageCallback(){
@OverridepublicvoidonResult(List<String>result){Log.i(TAG,"supportlanguages=="+result.toString());}@OverridepublicvoidonError(interrorCode,StringerrorMsg){Log.e(TAG,"errorCode:"+errorCode+"errorMsg:"+errorMsg);}});第二步是创建activity,传入之前创建的intent,用于拾音,并将结果返回原activity,可实时识别60s内 (包括60s) 的语音。privatestaticfinalintREQUEST_CODE_ASR=100;
// REQUEST_CODE_ASR表示当前Activity和拾音界面Activity之间的请求码,通过该码可以在当前Activity中获取拾音界面的处理结果。startActivityForResult(intent,REQUEST_CODE_ASR);最后,覆写“onActivityResult”方法,用于处理语音识别服务返回结果即可 (详细代码见参考链接) 。 每一步的开发细节,在HMS Core官网都有详尽的开发指南可供查询,十分新手友好。 另外,HMS Core的机器学习服务也不仅适用于 华为 手机, Android 设备和 iOS 设备也能用,具体版本要求如下。 怎么样?简单接入SDK,无需复杂的调参训练,即可获得大厂商用级别的AI算法能力,你是不是已经脑洞大开了? (并且还不仅仅是语音语言技术,ML Kit还提供了文本、图像等各种AI算法功能。具体详情,可戳文末“阅读原文”,参考ML Kit官网) 实际上,这种把长期积累的技术能力,通过能够轻松上手的工具释放给移动应用开发者的做法,亦非华为一家独有。 无论是谷歌的GMS Core,还是苹果面向开发者的各种Kit,核心目的都是想不断降低前沿技术落地的门槛,让更多开发者能在技术顾虑之外,将更多的精力和时间投入到创意当中。 如此一来,手机用户们自然喜闻乐见:最新鲜的技术能以各种好玩的创意形式,在手机里直接体验到。 对于厂商而言,应用的繁荣则构成生态循环中最为重要的一个节点,对外吸引更多用户,对内汇聚更多优秀的开发者。 甚至,华为如今还更进一步,不仅面向HarmonyOS,还把HMS Core的能力释放给了安卓和iOS应用开发者。 台子全面铺开,就等移动应用开发者们来登台表演了。关键是,如果你还有不解之处,华为还打算让技术大牛好好同你说道说道。
99科技网:http://www.99it.com.cn
