热数据通过边缘设备如何消除云延迟
| 发布时间: 2019-05-17 09:43:37 | 1260 次浏览
对于消费者来说,高延迟是一种烦恼;对于希望通过云服务采用高级基础设施服务的公司来说,这是一个严重的问为了引入先进的物联网功能,例如自动驾驶汽车,这个
这是一个障碍。
避免高延迟是完全可以理解的。
但毕竟,公共云存储意味着数据可以位于数百或数千英里之外的设施中,这会导致严重的延迟。
边缘是延迟杀手 \\ n
解决延迟问题的唯一现实方法是利用边缘设备并将数据移近最终用户或应用程序。
少于12个企业数据是热门数据,这是最终用户经常需要访问的数据。虽然组织中的大多数数据都可以存储在云中,但是热数据需要存储在本地。
边缘计算20
对于数据既不冷也不热,用户可以在大约5个小时内访问它们。
为了在丢失缓存时保持良好的性能,热数据需要缓存不超过120英里。
延迟时间约为1到2毫秒,符合闪存性能预期。
当然,诀窍是创建一个智能网络,自动将数据划分为热,温或冷,并将每个数据放在正确的位置,以最大限度地减少延迟。
所有数据,热数据,热数据和冷数据的主副本都保留在公共云中,但热数据集和热数据集存储在本地和区域的边缘。
热数据将可用并存储在基于闪存的边缘设备中,以获得最佳性能。
暖数据是指在几周到一个月内访问的数据,应存储在距离最终用户不超过120英里的区域边缘的存储点PoP中。
冷数据和归档数据可以访问公共云的多个位置。
本地入口点利用闪存和直接连接到存储网络,以确保最终用户立即访问热层中的所有数据。
对于暖层数据,区域PoP存储还利用高速闪存技术和相对较短的数据传输距离来维持低延迟和高性能。
对于最终用户来说,体验是无缝的,一切都像本地闪存。
对于IT管理员来说,它可以降低现场存储系统的成本,确保性能和灵活性,同时消除过去几天的大量本地占用空间。
边缘计算8 \\ n
为了进一步减少高延迟,不要依赖公共互联网进行连接,而是通过专用网络线连接所有这些存储挑战。
有人可能会认为,与公共互联网相比,私人线路的成本将高得惊人,但事实上,在20世纪90年代末和21世纪初期,大量电信基础设施留下的光纤数量仍然非常高,所以价格非常高。
低。
由于数据沿此专线移动,因此不存在串扰或数据包干扰的可能性,串扰或数据包干扰的另一个好处是增强了安全性。
即使是大型公共云提供商也是如此# ##现在也认识到企业不能仅仅依靠云来提供高级服务,例如下一代物联网或主存储。
例如,AWS Outposts是去年11月推出的一项新服务,允许客户在自己的站点上运行AWS并直接连接到AWS。
为实现这一目标,AWS为客户提供了运行VMware AWS设计的计算和存储硬件的完全托管机架。
另一项服务,即物联网服务SiteWise,是物联网的一部分Service Suite,通过内部网关从工业站点收集数据。
AWS不是一个案例。
微软还宣布了其物联网服务,微软物联网边缘服务的新功能。
AWS和Microsoft Azure意识到单靠云无法提供企业IT和越来越多高级IoT应用程序所需的性能。
克服云的固有延迟并非易事但是,通过应用智能缓存和边缘设备,企业IT可以克服这些问题并利用云来简化存储基础架构。