电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

大数据基础课程设计报告VIP专享

大数据基础课程设计报告_第1页
1/26
大数据基础课程设计报告_第2页
2/26
大数据基础课程设计报告_第3页
3/26
大数据基础课程设计报告 一、项目简介: 使用 hadoop 中的 hive、mapreduce 以及 HBASE 对网上的一个搜狗五百万的数进行了一个比较实际的数据分析。搜狗五百万数据,是经过处理后的搜狗搜索引擎生产数据,具有真实性,大数据性,能够较好的满足分布式计算应用开发课程设计的数据要求。 搜狗数据的数据格式为:访问时间\t 用户 ID\t[查询词]\t 该 URL 在返回结果中的排名\t 用户点击的顺序号\t 用户点击的 URL。其中,用户 ID 是根据用户使用浏览器访问搜索引擎时的 Cookie 信息自动赋值,即同一次使用浏览器输入的不同查询对应同一个用户 ID。 二、操作要求 1.将原始数据加载到 HDFS 平台。 2.将原始数据中的时间字段拆分并拼接,添加年、月、日、小时字段。 3.将处理后的数据加载到 HDFS 平台。 4.以下操作分别通过 MR 和 Hive 实现。  查询总条数  非空查询条数  无重复总条数  独立UID 总数  查询频度排名(频度最高的前50 词)  查询次数大于2 次的用户总数  查询次数大于2 次的用户占比  Rank 在10 以内的点击次数占比  直接输入URL 查询的比例  查询搜索过”仙剑奇侠传“的uid,并且次数大于3 5.将 4 每步骤生成的结果保存到 HDFS 中。 6.将 5 生成的文件通过Java API 方式导入到 HBase(一张表)。 7.通过HBase shell 命令查询6 导出的结果。 三、实验流程 1 . 将原始数据加载到HDFS 平台 2 . 将原始数据中的时间字段拆分并拼接,添加年、月、日、小时字段 (1)编写 1 个脚本 sogou-log-extend.sh,其中 sogou-log-extend.sh 的内容为: #!/bin/bash #infile=/root/sogou.500w.utf8 infile=$1 #outfile=/root/filesogou.500w.utf8.ext outfile=$2 awk -F '\t' '{print $0"\t"substr($1,0,4)" 年\t"substr($1,5,2)" 月\t"substr($1,7,2)" 日\t"substr($1,8,2)"hour"}' $infile > $outfile 处理脚本文件: bash sogou-log-extend.sh sogou.500w.utf8 sogou.500w.utf8.ext 结果为: 3 . 将处理后的数据加载到 HDFS 平台 hadoop fs -put sogou.500w.utf8.ext / 4 . 以下操作分别通过 MR 和 Hiv e 实现 Ⅰ.hiv e 实现 1.查看数据库:show databases; 2.创建数据库: create database sogou; 3.使用数据库: use sogou; 4.查看所有表:show tables; 5.创建 sougou 表...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

大数据基础课程设计报告

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部