当我们谈论产业互联网时,我们在谈论什么?(3)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
获取和传输。 获得权限只是第一步,只有获取目标数据,才能进行开发和创造价值。现如今,数据规模越来越大、数据需求的规模也随之增加,特别是对于数据挖掘、AI训练等常见场景而言。这么大的数据量,如何有效的与数据开发顺畅结合起来,也是对数据流通的很大考验。大规模的拉取和传输固然会给开发者带来极大便利,却也要考虑传输速度瓶颈、数据泄露风险,恐怕每个企业都会慎之又慎;而在远端开发和部署算法,避免了大数据传输所带来的效率瓶颈,却对数据管理者提出了很高的要求——需要提供完善的算法开发和运行环境。环境是不是足够 兼容 (满足企业内外部的多种开发需求)?是不是足够 稳定 (如长期访问、高并发需求)?是不是具备 开放能力 (面对新的算法需求时能够快速开发完成)?是不是足够 安全 (针对内外部访问的各种场景,做好网络隔离、底层防护等各种工作)?……可以看出,打造这样的一个环境,难度不是软件级的,是平台级的。
因此,考虑大数据,不止于数据,而是重点关注“配套”设施。 配套设施做不好,创造价值的效率也就大打折扣。身份认证、权限管理作为数据流通的第一环节,无疑是重中之重,直接决定了数据开发的效率。此外,针对不同类型、不同规模、不同热度的数据,也需要制定不同的获取和传输方案,兼顾效率、安全、稳定等多种因素。具体到落实层面,有两点可以考虑:
统一身份认证系统,将认证与后端解耦合。 一套数据一套ID的老模式,数据管理低效、用户使用繁琐,面对大量的内外部用户时,完全力不从心。不如彻底将身份认证与数据完全解耦,以高效的动态权限管理机制作为中间层,配合可扩展的规则引擎,易于管理、监控和追溯。
充分 使用云服务,数据上“云”促进流通。 许多产业企业对于上“云”总是免不了顾虑,一说要让数据溜出自己的机房,心里就要打鼓:损坏了怎么办?被偷了怎么办?被云厂商“卡脖子”怎么办?……这些顾虑总体上可以理解,但其实在技术上早就足以应对,数据加密传输、加密存储、授权访问早已不存在障碍,而且云厂商天然有海量多副本存储、高速网络和全国/全球节点可以利用,数据永久损坏的概率极低、跨域传输和访问速度无忧。一个建议是,如果对核心数据顾虑太大,不如针对创新性的业务、非核心的数据、需要广域共享的场景进行上“云”试点,降本增效、降低风险、何乐不为呢?
99科技网:http://www.99it.com.cn
