Redhat AS 4 成功升级最新Gcc


好不容易拿到批机器部署Hadoop1.0.1,却发现datanode的tasktracker死活启动不了,java还报了个fatal error,真莫名其妙。

这里再次佩服google的强大,x度真的啥都找不到。
tasktracker启动失败,最终找到原因:
hdfs的部分c底层,是针对gcc4.1构建,而RedHat AS 4系统中,最新的gcc是3.4。

那就动手升级gcc了。但这是个挺苦力的工作,gcc依赖挺多其他包,而且要重新编译。这里先列出gcc4.7依赖的一些包:

1. glibc-devel
在编译gcc过程中,报错,说:
/usr/bin/ld: crti.o: No such file: No such file or directory

其实系统中存在这个文件,解决办法是,找到crti.o所属的包:
1)找到crti.o所在:
  locate crti.o
  /usr/lib64/crit.o
2)获得该文件所在包:
  rpm -qf /usr/lib64/crit.o
  glibc-devel-2.3.4-2.36
3)安装对应包:
  yum install glibc-devel-2.3.4-2.36

2. 安装xz   http://tukaani.org/xz/xz-5.0.3.tar.gz
解压后,放在/home/hadoop/xz-5.0.3下
./configure --prefix=/home/hadoop/local
make
make install
跟着修改 ~/.bashrc:

  1. export PATH=/usr/newgcc/bin:/home/hadoop/local/bin:$PATH   
  2. export LD_LIBRARY_PATH=/usr/newgcc/lib64:/home/hadoop/local/lib:$LD_LIBRARY_PATH   
  3. export LD_LIBRARY_PATH=/usr/newgcc/lib:/home/hadoop/local/lib:$LD_LIBRARY_PATH  

其中的/usr/newgcc是最后gcc安装的位置,这一次性的先添加到.bashrc。
之后,让设置生效:source ~/.bashrc
测试是否已经正确安装:输入:xz
则会有相关提示。


3. 下载mpc、mpfr、gmp
1)mpfr  http://www.mpfr.org/
2)mpc   http://www.multiprecision.org/
3)gmp   http://ftp.tsukuba.wide.ad.jp/software/gmp/gmp-5.0.0.tar.bz2

一般的操作时,分别编译这三个库,之后再编译gcc,但发现gcc官网有个偷懒的方法,就是把这些库解压后,分别改名为:gmp、mpc、mpfr后,mv到gcc源目录下,那么gcc在编译过程中,就会一同编译这3个库,原文: http://gcc.gnu.org/install/prerequisites.html

4. 之后可以编译安装gcc了
1)./configure --prefix=/usr/newgcc  --enable-shared --enable-threads=posix --enable-checking --with-zlib=/home/hadoop/local/bin --enable-__cxa_atexit --disable-libunwind-exceptions --enable-java-awt=gtk --build=x86_64-redhat-linux --enable-languages=c,c++

这里的build参数,而非host参数,若是host则会报错,原因不明。

2)make
3)make install
之后输入:gcc -v

  1. Using built-in specs.   
  2. COLLECT_GCC=gcc   
  3. COLLECT_LTO_WRAPPER=/usr/newgcc/libexec/gcc/x86_64-redhat-linux/4.7.0/lto-wrapper   
  4. Target: x86_64-redhat-linux   
  5. Configured with: ./configure --prefix=/usr/newgcc --enable-shared --enable-threads=posix --with-gmp=/home/hadoop/local/ --with-mpfr=/home/hadoop/local --with-mpc=/home/hadoop/local/ --enable-checking --with-zlib=/home/hadoop/local/bin --enable-__cxa_atexit --disable-libunwind-exceptions --enable-java-awt=gtk --build=x86_64-redhat-linux --enable-languages=c,c++   
  6. Thread model: posix   
  7. gcc version 4.7.0 (GCC)   

说明已经安装成功。

PS:为了不同登录用户都能使用gcc,则需要修改对应用户home下的.bashrc

附上另外一位仁兄的文章,对本人帮助很大:

相关内容