N25_第四周作业(补)

   2017-01-06 0
核心提示:1、复制/etc/skel目录到/home/tuser1,要求/home/tuser1及其内部文件的属组和其它用户均没有任何访问权限。[root@EASTED tmp]# cp -r /etc/skel/ /home/tuser1/[root@EASTED tmp]# cp -r /etc/skel/ /home/tuser1/[root@EASTED tmp]# ls -al /home/tuser1/总用

1、复制/etc/skel目录到/home/tuser1,要求/home/tuser1及其内部文件的属组和其它用户均没有任何访问权限。

[root@EASTED tmp]# cp -r /etc/skel/ /home/tuser1/
[root@EASTED tmp]# cp -r /etc/skel/ /home/tuser1/
[root@EASTED tmp]# ls -al /home/tuser1/
总用量 4
drwx------.  3 root root   17 1月   2 21:31 .
drwxr-xr-x. 10 root root 4096 1月   2 21:29 ..
drwx------.  3 root root   74 1月   2 21:31 skel

2、编辑/etc/group文件,添加组hadoop

hadoop:x:1004:
:wq

[root@EASTED tmp]# echo "hadoop:x:1004:" >> /etc/group
[root@EASTED tmp]# cat /etc/group
hadoop:x:1004:

3、手动编辑/etc/passwd文件新增一行,添加用户hadoop,基本组的id号;其家目录为/home/hadoop

[root@EASTED tmp]# vi /etc/passwd
hadoop:x:1004:1004::/home/hadoop:/bin/bash
-- INSERT --

4、复制/etc/skel目录为/home/hadoop,要求修改hadoop目录的属组和其它用户没有任何访问权限。

[root@EASTED tmp]# cp -r /etc/skel/ /home/hadoop
[root@EASTED tmp]# chmod 700 /home/hadoop/
[root@EASTED tmp]# ls -al /home/hadoop/
总用量 16
drwx------.  3 root root   74 1月   2 21:59 .
drwxr-xr-x. 11 root root 4096 1月   2 21:59 ..
-rw-r--r--.  1 root root   18 1月   2 21:59 .bash_logout
-rw-r--r--.  1 root root  193 1月   2 21:59 .bash_profile
-rw-r--r--.  1 root root  231 1月   2 21:59 .bashrc
drwxr-xr-x.  4 root root   37 1月   2 21:59 .mozilla
[root@EASTED tmp]#

5、修改/home/hadoop目录及其内部所有文件的属主为hadoop,属组为hadoop

[root@EASTED tmp]# chown -R hadoop:hadoop /home/hadoop/
[root@EASTED tmp]# ls -al /home/hadoop/
总用量 16
drwx------.  3 hadoop hadoop   74 1月   2 21:59 .
drwxr-xr-x. 11 root   root   4096 1月   2 21:59 ..
-rw-r--r--.  1 hadoop hadoop   18 1月   2 21:59 .bash_logout
-rw-r--r--.  1 hadoop hadoop  193 1月   2 21:59 .bash_profile
-rw-r--r--.  1 hadoop hadoop  231 1月   2 21:59 .bashrc
drwxr-xr-x.  4 hadoop hadoop   37 1月   2 21:59 .mozilla

6、显示/proc/meminfo文件中以大写或小写开头的行;用两种方式;

[root@EASTED tmp]# grep ^[sS] /proc/meminfo 
SwapCached:            0 kB
SwapTotal:       2097148 kB
SwapFree:        2097148 kB
Shmem:              9788 kB
Slab:             116176 kB
SReclaimable:      58352 kB
SUnreclaim:        57824 kB
[root@EASTED tmp]# grep -i ^s /proc/meminfo 
SwapCached:            0 kB
SwapTotal:       2097148 kB
SwapFree:        2097148 kB
Shmem:              9788 kB
Slab:             116188 kB
SReclaimable:      58360 kB
SUnreclaim:        57828 kB

7、显示/etc/passwd文件中其默认shell为非/sbin/nologin的用户;

[root@EASTED tmp]# grep -v "/sbin/nologin$" /etc/passwd
root:x:0:0:root:/root:/bin/bash
sync:x:5:0:sync:/sbin:/bin/sync
shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown
halt:x:7:0:halt:/sbin:/sbin/halt
lyf:x:1000:1000:LYF:/home/lyf:/bin/bash
LiangYF:x:1001:1001::/home/LiangYF:/bin/bash
slackware:x:1002:1002::/home/slackware:/bin/tcsh
houyuan:x:1003:1003::/home/houyuan:/bin/bash
hadoop:x:1004:1004::/home/hadoop:/bin/bash

8、显示/etc/passwd文件中其默认shell 为/bin/bash的用户

[root@EASTED tmp]# grep  "/bin/bash$" /etc/passwd
root:x:0:0:root:/root:/bin/bash
lyf:x:1000:1000:LYF:/home/lyf:/bin/bash
LiangYF:x:1001:1001::/home/LiangYF:/bin/bash
houyuan:x:1003:1003::/home/houyuan:/bin/bash
hadoop:x:1004:1004::/home/hadoop:/bin/bash

9、找出/etc/passwd文件中的一位或者两位数;

[root@EASTED tmp]# grep  "\<[0-9]\{1,2\}\>"  /etc/passwd
root:x:0:0:root:/root:/bin/bash
bin:x:1:1:bin:/bin:/sbin/nologin
daemon:x:2:2:daemon:/sbin:/sbin/nologin
adm:x:3:4:adm:/var/adm:/sbin/nologin
lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin
sync:x:5:0:sync:/sbin:/bin/sync
shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown
halt:x:7:0:halt:/sbin:/sbin/halt
mail:x:8:12:mail:/var/spool/mail:/sbin/nologin
operator:x:11:0:operator:/root:/sbin/nologin
games:x:12:100:games:/usr/games:/sbin/nologin
ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin
nobody:x:99:99:Nobody:/:/sbin/nologin
dbus:x:81:81:System message bus:/:/sbin/nologin
tss:x:59:59:Account used by the trousers package to sandbox the tcsd daemon:/dev/null:/sbin/nologin
saslauth:x:993:76:Saslauthd user:/run/saslauthd:/sbin/nologin
rpc:x:32:32:Rpcbind Daemon:/var/lib/rpcbind:/sbin/nologin
radvd:x:75:75:radvd user:/:/sbin/nologin
ntp:x:38:38::/etc/ntp:/sbin/nologin
rpcuser:x:29:29:RPC Service User:/var/lib/nfs:/sbin/nologin
gdm:x:42:42::/var/lib/gdm:/sbin/nologin
sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin
avahi:x:70:70:Avahi mDNS/DNS-SD Stack:/var/run/avahi-daemon:/sbin/nologin
postfix:x:89:89::/var/spool/postfix:/sbin/nologin
tcpdump:x:72:72::/:/sbin/nologin

10、显示/boot/grub/grub.conf中以至少一个空白字符开头的行;

[root@EASTED grub]# grep " ^[[:space:]]+"  /boot/grub/grub.conf

11、显示/etc/rc.d/sysinit 文件中以#开头,后面跟至少一个空白字符,而后又至少一个非空白字符的行;

[root@EASTED grub]# grep "^#[[:space:]]+[^[:space:]]" /etc/rc.d/rc.sysinit

12、打出netstat -tan命令执行结果中以'LISTEN',后面跟空白字符结尾的行;

[root@EASTED grub]# netstat -tan | grep  "LISTEN[[:space:]]*$"
tcp        0      0 192.168.122.1:53        0.0.0.0:*               LISTEN     
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN     
tcp        0      0 127.0.0.1:631           0.0.0.0:*               LISTEN     
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN     
tcp6       0      0 :::22                   :::*                    LISTEN     
tcp6       0      0 ::1:631                 :::*                    LISTEN     
tcp6       0      0 ::1:25                  :::*                    LISTEN

13、添加用户bash,testbash,basher,nologin(此一个用户的shell为/sbin/nologin),而后找出当前系统上其用户名默认shell 相同的用户信息;

[root@EASTED ~]# grep "^\([[:alnum:]]\+[^:]\>\).*\1$" /etc/passwd
sync:x:5:0:sync:/sbin:/bin/sync
shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown
halt:x:7:0:halt:/sbin:/sbin/halt
bash:x:1006:1006::/home/bash:/bin/bash
nologin:x:1012:1012::/home/nologin:/sbin/nologin

14、显示/proc/meminfo文件中以大写或者小写s开头的行;用三种方式;

[root@EASTED tmp]# grep ^[sS] /proc/meminfo 
SwapCached:            0 kB
SwapTotal:       2097148 kB
SwapFree:        2097148 kB
Shmem:              9788 kB
Slab:             116176 kB
SReclaimable:      58352 kB
SUnreclaim:        57824 kB

[root@EASTED tmp]# grep -i ^s /proc/meminfo 
SwapCached:            0 kB
SwapTotal:       2097148 kB
SwapFree:        2097148 kB
Shmem:              9788 kB
Slab:             116188 kB
SReclaimable:      58360 kB
SUnreclaim:        57828 kB

[root@EASTED ~]# grep -E "^(s|S)" /proc/meminfo
SwapCached:            0 kB
SwapTotal:       2097148 kB
SwapFree:        2097148 kB
Shmem:              9788 kB
Slab:             116384 kB
SReclaimable:      58500 kB
SUnreclaim:        57884 kB
 
标签: Hadoop Linux命令
反对 0举报 0 评论 0
 

免责声明:本文仅代表作者个人观点,与乐学笔记(本网)无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
    本网站有部分内容均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,若因作品内容、知识产权、版权和其他问题,请及时提供相关证明等材料并与我们留言联系,本网站将在规定时间内给予删除等相关处理.

  • Hadoop中mapreduce运行WordCount程序报错Error:
    这个问题是因为map的方法参数与继承mapper定义的参数类型不一致导致的,应该将Mapper的key参数类型设置成Object,就可以解决这个问题 
    03-08
  • Exceptionin thread "main" java.lang.Unsatisf
    在eclipse上运行hadoop报错:Exceptionin thread "main" java.lang.UnsatisfiedLinkError:org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(II[BI[BIILjav,这个问题折腾了我很久,后来找到方法解决。描述一下:电脑是win8.1的64位操作系
    02-10
  • java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray
    java.lang.UnsatisfiedLinkError: org.apache.h
    环境: Spark2.1.0 、Hadoop-2.7.5   代码运行系统:Win 7在运行Spark程序写出文件(savaAsTextFile)的时候,我遇到了这个错误:18/06/12 20:13:34 ERROR Utils: Aborting taskjava.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeCom
    02-10
  • 排查Hive报错:org.apache.hadoop.hive.serde2.
    CREATE TABLE json_nested_test (count string,usage string,pkg mapstring,string,languages arraystring,store mapstring,arraymapstring,string)ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe'STORED AS TEXTFILE;以上述sql创建表json_neste
    02-10
  • 简单描述如何安装配置一个apache开源版hadoop,
    1 ) 安装JDK并配置环境变量(/etc/profile)2) 关闭防火墙3) 配置hosts文件,方便hadoop通过主机名访问(/etc/hosts)4) 设置ssh免密码登录5) 解压缩hadoop安装包,并配置环境变量6) 修改配置文件( $HADOOP_HOME/conf )hadoop-env.sh core-site.xml hdfs-si
    02-10
  • hbase 启动 Error: Could not find or load mai
     安装好hadoop,然后安装hbase启动时出现问题,下面是报错信息:./hbase/bin/start-hbase.shError: Could not find or load main class org.apache.hadoop.hbase.util.HBaseConfToolError: Could not find or load main class org.apache.hadoop.hbase.zooke
    02-10
  • spark-shell报错:Exception in thread "main"
    环境:openSUSE42.2hadoop2.6.0-cdh5.10.0spark1.6.0-cdh5.10.0 按照网上的spark安装教程安装完之后,启动spark-shell,出现如下报错:报错信息:Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStreamat org
    02-10
  • Hadoop 3.1.2报错:xception in thread "main" org.apache.hadoop.fs.UnsupportedFileSystemExcepti
    Hadoop 3.1.2报错:xception in thread "main"
    报错内容如下:Exception in thread "main" org.apache.hadoop.fs.UnsupportedFileSystemException: No FileSystem for scheme "hdfs"at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:3332)at org.apache.hadoop.fs.FileSystem.creat
    02-10
  • Apache Hadoop 和Hadoop生态圈
    Apache Hadoop 和Hadoop生态圈Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户能够在不了解分布式底层细节的情况下。开发分布式程序。充分利用集群的威力进行快速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File Sys
    02-10
  • ubuntu安装配置Samba ubuntu安装配置hadoop
    一、安装Samba  apt-get install samba二、配置  方案一、最大权限配置  任何用户可对共享文件夹读写  1、建立共享文件夹      mkdir /home/wangyx/share    chmod 777 /home/wangyx/share   2、修改Samba配置    cp /etc/samba/smb.
    02-10
点击排行