大家好,今天小编关注到一个比较有意思的话题,就是关于大数据发展历程的问题,于是小编就整理了3个相关介绍大数据发展历程的解答,让我们一起看看吧。
1、大数据的发展历程
2008年被《自然》杂志专刊提出了BigData概念
萌芽阶段:
20世纪90年代到21世纪的样子,数据库技术成熟,数据挖掘理论成熟,也称数据挖掘阶段。
突破阶段:
2003——2006年,非结构化的数据大量出现,传统的数据库处理难以应对,也称非结构化数据阶段。
成熟阶段:
2006——2009年,谷歌公开发表两篇论文《谷歌文件系统》和《基于集群的简单数据处理:MapReduce》,其核心的技术包括分布式文件系统GFS,分布式计算系统框架MapReduce,分布式锁Chubby,及分布式数据库BigTable,这期间大数据研究的焦点是性能,云计算,大规模的数据集并行运算算法,以及开源分布式架构(Hadoop)
应用阶段:
“大数据”出现阶段(1980-2008年)
“大数据”热门阶段(2009-2011年)
“大数据”时代特征阶段(2012-2016年)
“数据就是力量”,这是亚马逊的成功格言。EKN研究的最新报告显示,80%的电子商务巨头都认为亚马逊的数据分析成熟度远远超过同行。亚马逊利用其20亿用户账户的大数据,通过预测分析140万台服务器上的10个亿GB的数据来促进销量的增长。亚马逊追踪你在电商网站和APP上的一切行为,尽可能多地收集信息。你可以看一下亚马逊的“账户”部分,就能发现其强大的账户管理,这也是为收集用户数据服务的。主页上有不同的部分,例如“愿望清单”、“为你推荐”、“浏览历史”、“与你浏览过的相关商品”、“购买此商品的用户也买了”,亚马逊保持对用户行为的追踪,为用户提供卓越的个性化购物体验。
1. 20世纪40年代初,约翰·冯·诺伊曼和斯坦尼斯劳·乌拉姆等科学家设计了第一台计算机,为大规模计算和模拟复杂系统奠定了基础。
2. 在20世纪50年代到60年代,大模型开始在工业、交通、城市规划等领域得到广泛应用,如美国RAND公司开发的社会系统仿真,英国的Dial-A-Bus交通调度系统等。
3. 20世纪70年代到80年代,计算机存储和处理能力的显著提升,使得大模型能够涉及更大规模、更复杂的系统,如城市交通和区域经济建模。
4. 20世纪90年代,随着电子商务和互联网的兴起,大模型开始应用于在线广告投放、个性化推荐以及搜索引擎等互联网领域。
5. 21世纪以来,大数据和人工智能技术的发展,使得大模型的能力和应用场景更加广泛和深入,如自然灾害预警、医学诊断、社交网络分析等。
大模型的发展可以追溯到20世纪80年代。当时的神经网络模型只有几层,训练数据也很少。直到20世纪90年代,随着计算机技术的不断发展,神经网络模型的深度和训练数据的规模也逐渐增加。
2006年,Hinton等人提出了深度置信网络(Deep Belief Networks),这是一种多层神经网络模型,可以通过无监督学习进行预训练。这一突破为大模型的发展奠定了基础。
随后,2012年,Hinton等人在ImageNet图像分类竞赛中使用了深度卷积神经网络(Deep Convolutional Neural Network,简称CNN)取得了巨大成功。这一成果引发了对深度学习的广泛兴趣和研究热潮。
随着深度学习模型的发展,大模型的训练数据和算力需求也越来越大。为了应对这一挑战,2012年,Google公司推出了Google Brain项目,该项目旨在研究和开发大规模神经网络模型。Google Brain团队在2014年提出了Inception模型,该模型在ImageNet竞赛中取得了优异的成绩。
2014年,Google发布了用于分布式训练的深度学习框架TensorFlow,为大模型的训练提供了强大的工具支持。此后,各种大型深度学习模型相继涌现,如ResNet、BERT、GPT等,这些模型在图像识别、自然语言处理等领域取得了重大突破。
随着硬件技术的不断进步,如GPU和TPU的发展,以及云计算的普及,大模型的训练和部署变得更加可行和高效。目前,大模型已经成为深度学习领域的重要研究方向,并在各个领域展现出巨大的潜力和应用前景。
到此,以上就是小编对于大数据发展历程的问题就介绍到这了,希望介绍关于大数据发展历程的3点解答对大家有用。