四 川 大 学 计 算 机 学 院、软 件 学 院实 验 报 告 学号: 姓名: 专业: 班级: 9 第 15 周 课程名称 云计算与分布式系统实验课时6实验项目在最终部署的 Hadoop 上运行 WordCount 程序实验时间2024 年 6 月 11 日星期四实验目的 1. 首先通过 Linux 系统和 KVM 虚拟机的安装达成对 Linux 系统与虚拟机相关知识的了解和熟悉;2. 通过 Linux 下 JAVA—ADT 的安装以及 Hadoop 的相关配置了解 Hadoop 的基础知识及基础的应用方法;3. 通过多台主机的虚拟化以及 Hadoop 的联合部署,在该平台上运行 WordCount 程序,体验基本的云计算的雏形应用并加深对云计算相关知识的了解。实验环境 硬件环境:PC 机软件环境:Ubuntu 镜像,Linux 镜像以及 KVM 虚拟机程序包实验内容(算法、程序、步骤和方法) 一、 实验背景1. 在云计算及其相关应用日益火爆的今日,我们通过课堂上老师讲述的云计算相关的基本知识,已经对于利用 Hadoop 的配置实现一个较为简单的云计算环境有了一定的认识,因此,在本课程的期末设计中,我们采纳 Linux 下的 Hadoop 搭建来运行一些简单的程序比如 Wordcount 来达成对云计算的实现的基本知识的学习效果;2. 本实验中使用的是 MapReduce 的编程模型,采纳“分而治之"的基本思想,把对大规模数据集的操作,分发给一个主节点管理下的各个分节点共同完成,然后通过整合各个节点的中间结果,得到最终结果。简单地说,MapReduce 就是”任务的分解与结果的汇总";3. 在 Hadoop 中,用于执行 MapReduce 任务的机器角色有两个:一个是 JobTracker;另一个是TaskTracker,JobTracker 是用于调度工作的,TaskTracker 是用于执行工作的。一个 Hadoop集群中只有一台 JobTracker;4. 但是值得注意的一点是若要使用本实验中的 MapReduce 来处理数据集(或任务),其必须具备如下特点:待处理的数据集可以分解成许多小的数据集,而且每一个小数据集都可以完全并行地进行处理。二、 Linux 及 KVM 虚拟机安装1. 首先我们找到比较常用的 Linux 适用版本镜像文件,这里我们使用的是图形化做得非常好的Ubuntu 14。04,然后使用 UltraISO 做出一个启动盘并在电脑上做出一个双系统,分区大小我们参照网络上的建议将主分区目录设置为 20G,成功做出一个 Linux 系统(这里我忘了截图了)装机的过程和下面的虚拟机装机是一样的。2. 然后我们在完成 Linux 下...