728x90

원문출처 : https://it-svr.com/proxmox-backup-server-nfs-datastore/

 

Proxmox Backup Server 에서 시놀로지/헤놀로지 NFS 데이터 저장소 사용 설정하기.

안녕하세요. 달소입니다. 이번글은 앞서 설치한 PBS 에서 데이터스토어로 NFS를 사용하는방법입니다. Proxmox 백업을 위한 PBS(Proxmox Backup Server)설치하기.안녕하세요. 달소입니다. 앞서 Proxmox 를 설명

it-svr.com

 

과정이 꽤나 복잡하나 잘 따라만 하신다면 크게 어려움없이 설정하실 수 있을거라 생각합니다.

시놀로지/헤놀로지에서 NFS 저장소 만들기

먼저 사용하고 계신 시놀/헤놀에서 NFS 저장소를 만들어주세요.

공유폴더를 만들고 NFS 접근권한셋팅을해주겠습니다.

생성한 공유폴더에 편집 -> NFS 권한 -> PBS 서버의 ip를 입력해주고 설정합니다.

그리고 아래 NFS 마운트 경로를 미리 확인해주세요.

이제 PBS에서 해당 NFS를 마운트하겠습니다.

PBS에서 NFS 마운트하기

먼저 shell로 이동한뒤 기본패키지를 설치해줍니다.

기본적으로 패키지가 설치되어있긴하나 이왕이면 최신버전으로 ㅎㅎ

그리고 아래 과정들을 통해 마운트할 디렉터리를 만들고 NFS를 마운트해주세요.
*volume2 이하 경로는 개인마다 다릅니다.

mkdir -p /data/PBS_NFS
chown backup:backup /data/PBS_NFS
chmod 775 /data/PBS_NFS
mount 192.168.1.30:/volume2/Proxmox_PBS /data/PBS_NFS
touch /data/PBS_NFS/test.txt

시놀/헤놀에서도 아래처럼 test.txt 파일이 생성된걸 확인하실 수 있습니다.

이제 재부팅시에도 NFS가 자동으로 마운트 되도록  아래 명령어로 fstab에 추가설정을진행해줍니다.

echo "192.168.1.30:/volume2/Proxmox_PBS /data/PBS_NFS nfs defaults 0 0" >> /etc/fstab

PBS에 NFS 데이터 저장소 추가하기

PBS 메인 UI로 가서 데이터스토어 추가를 해주신뒤 아래처럼 내용을 작성해줍니다.

Backing Path 는 마운트된 경로입니다.

이렇게 데이터스토어를 생성해도 아래처럼 Permission deined가 나오신다면 chmod 755로 NFS쪽 권한부여를 추가로해주시면됩니다

사용자계정을만들어서 권한부여를 진행하겠습니다.

구성 -> 접근관리 -> 사용자 관리 -> 추가 -> 계정 추가.

계정이 생성되었으니 이제 권한부여를 진행하겠습니다.

이제 Proxmox Backup Server를 Proxmox VE 에 추가할수있도록 셋팅해보겠습니다.

미리 쉘에서 아래 명령어를 통해 인증서의 Fingerprint값을 미리 복사해주세요.

proxmox-backup-manager cert info | grep Fingerprint

Proxmox VE에 PBS 서버 추가하기

아래처럼 내용을 잘 추가해주세요.

요렇게 잘 보이시면됩니다!

백업은 항상그렇듯 VM에서 데이터스토어만 지정해주시면 잘됩니다.

증분백업도 잘되는군요 ㅎㅎ

참조 : https://crepaldi.us/2021/03/07/how-to-setup-nfs-on-synology-nas-for-proxmox-backup-server-to-use-as-datastore/

728x90

Proxmox를 처음 설치하고나서 네트워크 설정을 해줘야 정상적으로 작동한다

/etc/resolv.conf

domain skbroadband //skbroadband를 사용하고있기에 이렇게 적어주는 것
search skbroadband
nameserver [해당통신사의 DNS주소]

/etc/network/interfaces

auto lo
iface lo inet loopback

iface [인터페이스 이름] inet manual

auto [가상 인터페이스 이름]
iface [가상 인터페이스 이름] inet dhcp //dhcp로 설정할것
	bridge-ports [인터페이스 이름]
    bridge-stp off
    bridge-fd 0
728x90

원문출처 : https://anyun.org/a/xitongwendang/2023/0626/13122.html

 

VMware ESXi8.0U1a下安装群晖最新系统DSM7.2.64750 | 安云网 – AnYun.ORG

输入用户名或电子邮箱地址,您会收到一封新密码链接的电子邮件。

anyun.org

 

VMware ESXi8.0U1a에 Synology의 최신 시스템 DSM7.2.64750을 설치합니다.

1. ESXi8.0U1a 설치

ESXi8 설치 중 VMFSL 파티션이 너무 커지는 문제 해결

먼저 시스템이 부팅될 때 Shift+o를 눌러 명령줄을 입력합니다.

그런 다음 runweasel 다음에 명령을 입력하고 공백을 입력한 다음 autoPartitionOSDataSize=8192를 입력합니다.

그런 다음 "Enter 키"를 눌러 설치를 계속하세요. 단계는 비교적 간단합니다.

( 사진을 클릭 하면 확대됩니다)

( 사진을 클릭 하면 확대됩니다)

2. apl ESXi 버전 가이드를 다운로드하세요.

https://github.com/wjz304/arpl-i18n

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

3. ESXi 스토리지의 apl 부팅 파일에 해당하는 두 개의 vmdk 파일을 업로드합니다.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

4. ESXi8의 vSwitch0 스위치 보안 설정

(사진을 클릭하면 확대됩니다)

5. 가상 머신 생성

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

  • CPU 및 메모리 크기는 사용자가 정의합니다.
  • 자신의 하드 드라이브를 추가하고, 컨트롤러에 대해 SATA 유형을 선택한 다음, 자신의 하드 드라이브를 SATA(0:0)로 설정하세요.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

  • 가상 하드 디스크는 SATA(0:1)입니다.

  • 네트워크 어댑터는 E1000e 유형입니다.

(사진을 클릭하면 확대됩니다)

  • BIOS로 설정된 부팅 옵션

6. Synology 가상 컴퓨터를 시작합니다.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

로더 구성 옵션을 자동으로 입력합니다.

IP가 자동으로 획득되기를 기다리면 브라우저는 프롬프트된 URL 주소 http://IP:7681 을 엽니다.

(사진을 클릭하면 확대됩니다)

7. 모델 선택

예를 들어 DS3622xs+

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

8. 빌드 번호 선택

예를 들어 최신 64750

(사진을 클릭하면 확대됩니다)

9.로더 빌드

(사진을 클릭하면 확대됩니다)

이때, 해당 모델의 pat 파일이 자동으로 다운로드됩니다.

(사진을 클릭하면 확대됩니다)

10.로더를 부팅합니다.

Build 완료 후 부팅 시작

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

11. DSM 시스템에 로그인합니다.

DSM 웹 인터페이스가 여전히 표시되지 않으면 ESXi 콘솔에서 가상 머신을 다시 시작할 수 있습니다.

(사진을 클릭하면 확대됩니다)

12. 이때 DSM을 부팅합니다.

(사진을 클릭하면 확대됩니다)

13. DSM7.2 시스템 설치

공식 웹사이트에서 pat 파일 DSM_DS3622xs+_64570.pat를 다운로드하는 것이 좋습니다.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

14. 프롬프트에 따라 다음 단계를 계속하여 Synology 설치를 완료합니다.

과정의 스크린샷은 다음과 같습니다

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

728x90

https://tteck.github.io/Proxmox/

 

Proxmox VE Helper Scripts | Scripts for Streamlining Your Homelab with Proxmox VE

 

tteck.github.io

 

Proxmox VE Helper Scripts
Scripts for Streamlining Your Homelab with Proxmox VE

728x90

원문출처 : https://svrforum.com/recent/968224

 

서버포럼 - Proxmox CPU 마이크로코드 패치하기.(CPU 펌웨어패치)

안녕하세요. 달소입니다. 이번글에서는 Proxmox가 설치된 하드웨어에서 최신 CPU 마이크로 코드를 설치하는 방법입니다. CPU의 Microcode란 무엇인가요? CPU의 Microcode는 CPU의 명령어 집합을 구현하는

svrforum.com

 

https://tteck.github.io/Proxmox/

 

Proxmox VE Helper Scripts | Scripts for Streamlining Your Homelab with Proxmox VE

 

tteck.github.io

 

728x90

원문출처 : https://www.servethehome.com/how-to-pass-through-pcie-nics-with-proxmox-ve-on-intel-and-amd/

 

How to Pass-through PCIe NICs with Proxmox VE on Intel and AMD

We have a quick how-to guide for pass-through PCIe NICs with Proxmox VE on Intel and AMD. This is often used for pfSense and OPNsense

www.servethehome.com

 

Proxmox VE 웹 GUI 통과할 NIC 선택

오늘 빠른 것은 NIC를 Promxox VE의 가상 머신으로 전달하기 위한 매우 간단한 자습서입니다. 통과 NIC는 하이퍼바이저 오버헤드를 방지하고 가상 NIC와 pfSense 및 OPNsense와 같은 일부 방화벽 어플라이언스를 사용하여 호환성 문제를 해결하는 데 도움이 될 수 있습니다. 단점은 NIC가 SR-IOV를 지원하지 않는 한 이 구성에서 공유 장치가 아닐 가능성이 높다는 것입니다.

1단계: BIOS 설정

가장 먼저 해야 할 일은 시스템에서 IOMMU 기능을 켜는 것입니다. 이를 위해서는 CPU와 플랫폼이 해당 기능을 지원해야 합니다. 오늘날 대부분의 플랫폼은 IOMMU를 지원하지만 일부 이전 플랫폼은 지원하지 않습니다. Intel 플랫폼에서는 이를 "VT-d"라고 합니다. Intel Virtualization Technology for Directed I/O(VT-d)의 약자입니다.

Intel VT D를 활성화하여 IOMMU 작동

 

AMD 플랫폼에서는 AMD-Vi를 옵션으로 볼 수 있습니다. 때로는 다른 시스템 펌웨어에서 IOMMU를 볼 수 있습니다. 활성화하려는 옵션입니다.

물론 이것은 Proxmox VE이므로 BIOS에 있는 동안에도 기본 가상화가 켜져 있는지 확인하고 싶을 것입니다. 또한 이 가이드를 사용하는 사람들에게 주요 초점이 될 것이므로 시스템에 방화벽/라우터를 만드는 경우 일반적으로 AC 전원 설정을 "항상 켜짐" 또는 "마지막 상태"로 설정하는 것이 좋습니다. 정전이 발생하면 네트워크가 즉시 복구됩니다.

다음으로 GRUB 또는 systemd를 부트로더로 사용하고 있는지 확인해야 합니다.

2단계: GRUB 또는 systemd를 사용 중인지 확인

이것은 새로운 단계이지만 최신 버전의 Proxmox VE를 설치하고 ZFS를 루트로 사용하는 경우(향후 확장될 수 있음) GRUB이 아닌 systemd를 사용하고 있을 가능성이 높습니다. 설치 후 이 명령을 사용하여 사용 중인 것을 확인합니다.

efibootmgr -v

"File(\EFI\SYSTEMD\SYSTEMD-BOOTX64.EFI)"와 같은 내용이 표시되면 GRUB이 아닌 systemd를 사용하고 있는 것입니다.

또 다른 이점은 부팅할 때 GRUB이 포함된 블루 스크린과 OS로 들어가기 직전에 여러 옵션이 표시되면 GRUB을 사용하고 있는 것입니다. 다음과 같은 내용이 표시되면 systemd를 사용하고 있는 것입니다.

Proxmox VE 시스템 부팅 메뉴

 

이는 많은 이전 가이드가 GRUB를 사용하고 있기 때문에 중요하지만 systemd를 사용하고 GRUB 지침을 따르는 경우 NIC 패스스루에 필요한 IOMMU를 활성화하지 않습니다.

3a단계: GRUB를 사용하여 IOMMU 활성화

GRUB가 있고 현재 대부분의 설치가 있는 경우 구성 파일을 편집해야 합니다.

nano /etc/default/grub

Intel CPU의 경우 quiet intel_iommu=on을 추가합니다.

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

AMD CPU의 경우 quiet amd_iommu=on을 추가합니다.

GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on"

다음은 배치할 위치를 보여 주는 인텔 라인이 있는 스크린샷입니다.

Proxmox VE Nano Grub Quiet Intel Iommu On

 

선택적으로 IOMMU PT 모드를 추가할 수도 있습니다. PT 모드는 패스스루가 사용될 때 시스템의 다른 PCIe 장치의 성능을 향상시킵니다. 이것은 Intel 및 AMD CPU에서 작동하며 iommu=pt입니다. 다음은 추가될 AMD 버전이며 인텔 스크린샷은 다음과 같습니다.

GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt"

이것이 진행되는 스크린 샷은 다음과 같습니다.

Proxmox VE Nano Grub Quiet Intel Iommu On Iommu Pt

 

저장하고 종료하는 것을 잊지 마십시오.

이제 GRUB을 업데이트해야 합니다.

update-grub

이제 4단계로 이동합니다.

3a단계: systemd를 사용하여 IOMMU 활성화

2단계에서 systemd를 사용하고 있는 것을 발견한 경우 GRUB에 비트를 추가해도 작동하지 않습니다. 대신 다음과 같이 하십시오.

nano /etc/kernel/cmdline

Intel CPU의 경우 다음을 추가하십시오.

quiet intel_iommu=on

AMD CPU의 경우 다음을 추가하십시오.

quiet amd_iommu=on

다음은 인텔 버전을 사용하여 추가할 위치에 대한 스크린샷입니다.

Proxmox VE Systemd Quiet Intel_iommu=on

 

선택적으로 IOMMU PT 모드를 추가할 수도 있습니다. 이것은 Intel 및 AMD CPU에서 작동하며 iommu=pt입니다. 다음은 추가될 AMD 버전이며 인텔 스크린샷은 다음과 같습니다.

quiet amd_iommu=on iommu=pt

인텔 스크린샷은 다음과 같습니다.

Proxmox VE Systemd Quiet Intel_iommu=on Iommu=pt

 

이제 부팅 도구를 새로 고쳐야 합니다.

proxmox-boot-tool refresh

이제 4단계로 이동합니다.

4단계: 모듈 추가

대부분은 위의 작업이 완료된 후 즉시 재부팅되며 이는 아마도 좋은 습관일 것입니다. 일반적으로 저는 시간을 절약하기 위해 모듈을 추가하는 것을 좋아합니다. 더 보수적이라면 재부팅한 다음 이 단계를 수행하십시오. 다음으로 편집하여 모듈을 추가할 수 있습니다.

nano /etc/modules

해당 파일에서 다음을 추가할 수 있습니다.

vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd

다음과 같이 표시됩니다.

Proxmox VE NIC 패스스루 기타 모듈 추가

 

다음으로 재부팅할 수 있습니다.

5단계: 재부팅

이것은 다음에 재부팅하고 싶을 만큼 충분히 큰 변경입니다. PVE에서 우리가 가진 팁은 기본 시스템을 설정할 때 자주 재부팅하는 것입니다. 구성을 구축하는 데 몇 시간을 소비하고 싶지 않은 경우 구성이 부팅되지 않고 이유를 알 수 없습니다.

우리는 보다 현대적인 시스템을 위해 위의 내용을 약간 요약했음을 곧 알게 될 것입니다. 아래 확인 단계에서 문제가 발생하면 대신 모듈을 추가하기 전에 재부팅하고 재부팅하기 전에 PT 모드를 켜지 않는 것이 좋습니다.

7단계: 모든 것이 작동하는지 확인

사용할 명령은 다음과 같습니다.

dmesg | grep -e DMAR -e IOMMU

시스템, 가지고 있는 옵션 등에 따라 여기에서 많은 출력이 변경됩니다. 찾고 있는 것은 스크린샷 DMAR: IOMMU 활성화:에서 강조 표시된 줄입니다.

Proxmox VE IOMMU 활성화됨

 

당신이 그것을 가지고 있다면, 당신은 좋은 상태 일 것입니다.

7단계: NIC를 사용하도록 Proxmox VE VM 구성

이를 위해 Inexpensive 4x 2.5GbE Fanless Router Firewall Box Review 와 매우 유사한 작은 상자를 사용하고 있습니다  . 본질적으로 동일하며 해당 상자의 다른 버전입니다. 좋은 기능 중 하나는 각 NIC가 자체 i225-V이며 각 개별 NIC를 통해 VM으로 전달할 수 있다는 것입니다. 다음은 예정된 동영상의 스크린샷입니다.

Proxmox VE 웹 GUI 통과할 NIC 선택

 

이전에는 CLI 편집을 통해 통과 NIC를 VM에 추가했습니다. 이제 Proxmox는 PCIe 장치 ID와 장치 공급업체 및 이름을 가져옵니다. 이렇게 하면 시스템에서 NIC를 매우 쉽게 선택할 수 있습니다. 많은 온보드 NIC에 대한 한 가지 좋은 점은 NIC가 시스템에 레이블이 지정되어 있기 때문에 물리적 순서는 순차적인 MAC 주소와 PCIe ID가 있음을 의미해야 한다는 것입니다. 위의 0000:01:00.0에서 첫 번째 NIC(ETH0)입니다. 장치 0000:02:00.0은 두 번째 등입니다.

Hunsn 4포트 2.5GbE I225 인텔 J4125 방화벽 박스 NIC 포트

 

이 시점에서 이미 완료되었습니다. OPNsense와 pfSense 모두에서 이 작업이 수행되고 프로세스가 매우 유사하다는 것을 알 수 있습니다. 좋은 점은 이렇게 하면 pfSense/OPNsense가 가상화된 NIC 장치를 사용하는 대신 NIC에 직접 액세스할 수 있다는 것입니다.

pfSense 및 OPNsense를 사용하는 IOMMU에 대한 몇 가지 참고 사항

이러한 NIC가 할당된 후 염두에 두어야 할 몇 가지 주요 고려 사항이 있습니다.

  • 통과 NIC를 사용하면 VM이 라이브 마이그레이션되지 않습니다. VM이 PCIe 위치에서 물리적 NIC를 기대하는데 이를 얻지 못하면 문제가 됩니다.
  • 개념적으로 SR-IOV라는 고급 기능이 있어 NIC를 통해 여러 장치로 전달할 수 있습니다. pfSense 및 OPNsense 어플라이언스에서 일반적으로 볼 수 있는 저가형 i210 및 i225-V NIC의 경우 개념적으로 NIC를 VM 전용으로 지정합니다. 즉, 다른 VM은 NIC를 사용할 수 없습니다. 다음은 OPNsense NIC에도 할당된 NIC를 사용하는 pfSense VM(600)이 있는 예입니다. OPNsense를 시작하려고 하면 오류가 발생합니다. Proxmox VE GUI를 사용하면 두 VM이 꺼져 있는 경우 두 VM에서 패스스루를 구성할 수 있지만 한 번에 하나만 전용 NIC에서 켜고 활성화할 수 있습니다.

Proxmox VE 웹 GUI NIC가 이미 pfSense에 할당된 경우 OPNsense용 두 번째 VM에 할당됨

  • 이전 하드웨어에는 IOMMU 기능이 없을 수 있습니다. 최신 하드웨어에는 IOMMU와 ACS가 모두 있으므로 대부분의 최신 플랫폼에서는 PCIe 장치를 쉽게 분리하고 VM 전용으로 사용할 수 있습니다. 이전 하드웨어에서 때때로 PCIe 장치가 그룹화되는 방식은 이 예에서와 같이 NIC를 다른 VM에 개별적으로 통과시키려는 경우 문제를 일으킵니다.
  • 동일한 VM의 전용 통과 NIC와 함께 브리지에서 두 가상 NIC를 모두 활용할 수 있습니다.
  • 1GbE 속도에서 통과는 가상화된 NIC를 사용할 때와 큰 차이가 없습니다. 25GbE/100GbE 속도에서는 매우 큰 차이가 됩니다.
  • DPU에 대해 논의할 때 주요 차이점 중 하나는 DPU가 가상 네트워크 포트를 물리적 고속 포트에 브리징하는 것과 같은 기능을 처리할 수 있으며 호스트 CPU가 아닌 DPU에서 모두 발생한다는 것입니다.
  • 이것은 베어 메탈 설치보다 설정하는 데 시간이 오래 걸리고 pfSense 또는 OPNsense 설치에 복잡성을 추가하는 영역입니다. 이점은 재부팅과 같은 작업을 수행하는 것이 일반적으로 가상 머신에서 훨씬 빠르다는 것입니다. 주요 변경 사항이 있는 경우 pfSense 또는 OPNsense 이미지의 스냅샷을 찍을 수도 있습니다.
  • Proxmox VE 관리 및 기타 VM 기능을 위해 시스템에 하나 이상의 NIC를 추가하는 것이 좋습니다. 모든 NIC에 대한 패스스루를 사용하여 VM을 방화벽화하는 경우 시스템 NIC가 없습니다.

이것은 완전하지는 않지만 도움이 되기를 바랍니다.

마지막 말

이것은 pfSense, OPNsense 또는 다른 솔루션을 가상화할 때 Proxmox VE에서 PCIe 패스스루 NIC를 설정하는 빠른 가이드입니다. 2017년 또는 2020년 이후에 만들어진 최신 하드웨어에 더 적합하므로 이전 시스템을 사용하는 경우 더 많은 조정이 필요할 수 있습니다. 이것은 Intel과 같은 회사가 시장에서 자사 칩의 세분화에 사용했던 기능이었지만 요즘에는 대부분 VT-d를 지원할 것입니다.

728x90

원문출처 : https://svrforum.com/os/289851

 

서버포럼 - Proxmox local/local-lvm 디스크 통합하기

안녕하세요. 달소입니다. 요즘 계속 Proxmox에만 집중하고 있더니 이것저것 새로운게 많네요 ㅎㅎ 이번편은 Proxmox를 최초 설치했을때 파티션이 분리되어있는걸 통합하는 방식입니다. Proxmox를 최

svrforum.com

 

이번편은 Proxmox를 최초 설치했을때 파티션이 분리되어있는걸 통합하는 방식입니다.

Proxmox를 최초에 설치하고 나면 LVM의 파티션은 아래처럼 구분되어있습니다.

 

제기준으로 8TB HDD

Local - 100G (PVE/ISO/템플릿 등 용도)
Data - 나머지 7.xx TB (VM Disk/CT 볼륨 용도)

 

이렇게 나뉘어져있습니다.

제일 불편한건 로컬용량 자체가 100G로 보여서 쉘에서 작업할때 용량이 제한이 있다는거겠죠..

 

그래서 이 local-lvm을 기존 local에 통합시켜버리도록 하겠습니다.

통합을 하기위해서는 기존에 사용하던 스토리지를 아예 깔끔하게 비워주셔야 합니다.

그리고 쉘로들어가서 아래와같은 명령어를 입력해주세요.

명령어 내용은 위에 캡쳐한 data를 지우고 그용량의 전체를 /dev/pve/root로 리사이즈 시켜준다는 의미입니다.

 

lvremove /dev/pve/data
lvresize -l +100%FREE /dev/pve/root

 

 

리사이즈가 완료되면 /dev/pve/root의 파일시스템도 리사이징 해주시면됩니다.

 

resize2fs -p /dev/pve/root

 

 

완료되면 local의 토탈 사이즈가 늘어난걸 확인하실 수 있습니다.

 

마지막으로 스토리지로 가서 local의 디렉토리에 콘텐츠를 추가해주시면 됩니다.

 

728x90

원문출처 : https://blog.dalso.org/article/esxi-6-7-%EC%84%A4%EC%B9%98%EB%90%9C-%EC%83%81%ED%83%9C%EC%97%90%EC%84%9C-%EB%93%9C%EB%9D%BC%EC%9D%B4%EB%B2%84-%EC%B6%94%EA%B0%80%ED%95%98%EA%B8%B0-realtek-8125

 

ESXI 6.7 설치된 상태에서 드라이버 추가하기.(Realtek 8125) - 달소씨의 하루

안녕하세요. 달소입니다. 오랜만에 ESXI 관련글이네요 ㅎㅎ 이번편은 사용하고있는 ESXi에 드라이버를 추가하는방법입니다. 드라이버를 추가하는 이유는 다양하겠지만 새로 pci에 디바이스를 꽂

blog.dalso.org

 

오랜만에 ESXI 관련글이네요 ㅎㅎ

이번편은 사용하고있는 ESXi에 드라이버를 추가하는방법입니다.

드라이버를 추가하는 이유는 다양하겠지만 새로 pci에 디바이스를 꽂았는데 인식이 안된다거나..

뭐 여러가지 경우에 사용할 수 있을거라 생각합니다.

저같은경우 ESXi를 설치한 메인보드의 메인 LAN이 Realtek 8125B 2.5G랜인데 인식을 못해서..

인식시켜보도록하겠습니다.

1. 드라이버다운로드하기

먼저 ESXi에 설치할 드라이버를 다운로드 받아주세요.

저같은경우 Realtek 8125 드라이브를 받았습니다.

net-r8125-9.004.01-2-offline_bundle.zip
0.08MB
Realtek_r8125-NIC-offline_bundle-9.007.01-1-ESXi_6.x.zip
0.09MB

https://github.com/realganfan/r8125-esxi

net-r8125-9.004.01-2-offline_bundle.zip

다운로드 받으시고 ESXi 관리페이지 -> 데이터스토어에 업로드를 시켜주세요.

이제 직접 터미널에 연결해서 명령어를 입력해줘야하기때문에

ESXi의 SSH 터미널을 활성화시키겠습니다.

ESXi SSH 터미널 활성화하기

관리 -> 서비스 -> TSM-SSH -> 시작

계정은 사용하고계신 root 계정을 입력해주시면됩니다.

드라이버 설치하기

이제 업로드한 파일을 찾아서 드라이버를 설치해보겠습니다.

경로는 /vmfs/volumes/[데이터스토어이름]/[드라이버를 업로드한 폴더] 이렇게 되겠습니다.

이 경로의 드라이버를 설치해보겠습니다 명령어는 아래처럼입력해주세요.

esxcli software vib install -d /vmfs/volumes/datastore1/Driver/net-r8125-9.004.01-2-offline_bundle.zip

혹 위 명령어가 안되신다면 맨뒤에 -f 옵션을 붙여주시면됩니다.

위에 보다시피 Reboot Required true기 때문에 재부팅 해야 정상적으로 사용이 가능합니다.

재부팅 전 네트워크 어댑터 현황

재부팅 후 네트워크 어댑터 현황

뭐,, 애초에 이미지에 묶어서 만드는것도 하나해놔야겠네요 ㅎㅎ

728x90

원문출처 : https://www.2cpu.co.kr/vm/13805

 

ESXi 부팅용 USB 혹시 복사 되나요? :: 2cpu, 지름이 시작되는 곳!

1/115

www.2cpu.co.kr

 

질문 :
안녕하세요.

현재 ESXi 5.5u2를 SD카드에 설치해 사용 중입니다.

오랜만에 최신버전으로 업데이트 해보려니 용량이 모자란다는 메시지가 나오고, 32기가가 넘어야 된다고 하네요.

클린 설치하려니 막막해서 이곳 고수님들께 여쭤봅니다.



질문1) 혹시 ESXi 부팅용 USB도 복사해서 부팅시킬 수 있나요?

질문2) (가능하다면) 일반적인 usb 클론 툴로 가능한가요? 아니면 혹시 추천해주실만한 어플리케이션이 있는지 여쭤봅니다.


답변 :
ESXi Configuration 백업 후에 32GB 이상의 SD(다른 저장매체에 해도 됨)에 동일 버전으로 재 설치, 그리고 복원 하시면 됩니다.
주의 사항으로는 Build 버전까지 동일 한 버전으로 재 설치 하셔야 하며, 기존에 추가 등록한 VIB가 있는 경우에는 별도로 수동 설치 해야 합니다.

방법은 아래 링크를 참고 하시면 됩니다.
https://kb.vmware.com/s/article/2042141

정리하면 아래와 같습니다.

ESXi에 SSH으로 접근 후에
1. vim-cmd hostsvc/firmware/sync_config 실행
2. vim-cmd hostsvc/firmware/backup_config 실행.
3. http://Host_FQDN/downloads/xxxxxxxxxxx/configBundle-xx.xx.xx.xx.tgz 다운로드
4. 재 설치.
5.vim-cmd hostsvc/maintenance_mode_enter 으로 유지보수 모드 진입
6.다운로드한 configBundle-xx.xx.xx.xx.tgz 업로드
7.vim-cmd hostsvc/firmware/restore_config /backup_location/configBundle-xx.xx.xx.xx.tgz 실행으로 복원
그리고 재부팅.

728x90

원문출처 : https://blog.dalso.org/article/esxi-rdm-raw-device-mapping

 

ESXi RDM(Raw Device Mapping) 사용하기. - 헤놀로지 사용시 추천 - 달소씨의 하루

이번편에서는 ESXi를 좀더 효율적으로 사용하기위한 RDM(Raw Device Mapping)을 사용하는 방법에 대해 포스팅해보도록 하겠습니다. RDM이란 ESXi에서 사용이 가능한 원시 디스크를 의미합니다.원시디스

blog.dalso.org

 

ESXi RDM(Raw Device Mapping) 사용하기. – 헤놀로지 사용시 추천

 

이번편에서는 ESXi를 좀더 효율적으로 사용하기위한 RDM(Raw Device Mapping)을 사용하는 방법에 대해 포스팅해보도록 하겠습니다.

RDM이란 ESXi에서 사용이 가능한 원시 디스크를 의미합니다.
원시디스크는 디스크를 데이터스토어로 만들지않고 날것(?) 그대로 저장장치로 사용해서 가상머신에 붙이는걸 의미합니다.

이런 RDM을 사용하게되었을때 이점은 데이터스토어의 vmdk파일처럼 분리되어있지 않기때문에 헤놀 -> 시놀, 시놀 -> 헤놀의 과정을 거쳤을때 불필요한 여러번의 과정을 줄여줍니다.

HDD 장치 자체를 가상머신에 매핑해주기때문에
시놀로지에서 사용하던 HDD를 ESXi에 꽂고 RDM으로 매칭후 헤놀을 만들게 되면 시놀로지에서 사용하던 그대로 붙게되는것 입니다.

ESXi SSH 사용 설정하기

RDM을 설정하기위해서는 ESXi에 SSH로 콘솔을 붙어야하기 때문에 SSH 활성화를 먼저 해주겠습니다.

접속프로그램은 Putty를 사용해서 붙겠습니다.

계정은 ESXi 웹 콘솔 접근 계정과 동일합니다.

RDM 적용 디스크 확인

이제 RDM을 적용할 디스크를 확인할 차례입니다.

ls /dev/disks/ -l 명령어로 디스크 목록을 볼 수 있습니다.
명령어 결과에서 심볼릭링크로 되어있으며 뒤에 숫자가 없는걸 기록해주세요.
아래의 경우 vml.01000000002020202020202020202020205a44453252305837535431303030

RDM 적용하기

RDM도 원시 디스크를 -> vmdk 형식으로 링크화(?)시켜서 저장하는것이기 때문에 데이터스토어 저장되는데 저는 기본 datasotre1에 RDM이라는 폴더에 만들어보겠습니다.

vmkfstools -r /vmfs/devices/disks/[디스크이름] /vmfs/volumes/[데이터스토어이름]/[디렉토리]/[생성할RDM이름].vmdk -a lsilogic

위 명령어가 기본인데 제 기준으로 작성해보겠습니다.

디스크 이름 : vml.01000000002020202020202020202020205a44453252305837535431303030
데이터스토어 이름 : datastore1
디렉토리 : RDM
RDM이름 : Xpenology.vmdk

이걸 명령어로 나타내면 아래와 같습니다.

vmkfstools -r /vmfs/devices/disks/vml.01000000002020202020202020202020205a44453252305837535431303030 /vmfs/volumes/datastore1/RDM/Xpenology.vmdk -a lsilogic

그럼 이렇게 vmdk 파일이 생성되게 되고 VM 생성시에 기존 하드 디스크를 사용하면 자동으로 붙게됩니다.

 

————————————————–

 

728x90

출처 : https://blog.dalso.org/article/proxmox-%ec%97%90-xpenology-dsm-7-1-%ec%84%a4%ec%b9%98%ed%95%98%ea%b8%b0-feat-ds920

 

Proxmox 에 Xpenology DSM 7.1 설치하기.(Feat. DS920+) - 달소씨의 하루

안녕하세요. 달소입니다. ESXi에서 Proxmox로 넘어가기위해 필수조건이였던 헤놀로지를 Proxmox에 설치하는방법입니다. 기존에도 7.0.1버전의 가이드가있었지만 이미지로 사용하는것이였고 포럼에

blog.dalso.org

 

728x90

원본출처 : https://www.2cpu.co.kr/PDS/14535

 

Proxmox VE Admin Guide for 7.x (한글번역본) :: 2cpu, 지름이 시작되는 곳!

sfl 제목 내용 제목+내용 회원아이디 회원아이디(코) 이름 이름(코) stx sop and or 검색

www.2cpu.co.kr

pve-admin-guide-7 (KOR).rar
7.75MB

압축비번 : uname.in

728x90

"서비스형(as-a-Service)"이라는 용어는 제3사에서 클라우드 컴퓨팅 서비스를 제공한다는 의미입니다. 따라서 사용자는 코드, 고객 관계 관리와 같은 더 중요한 업무에 집중할 수 있습니다. 각 유형의 클라우드 컴퓨팅을 활용하면 관리해야 할 온프레미스 인프라가 지속적으로 감소합니다.

온프레미스 IT 인프라를 관리할 책임은 대부분 사용자와 관리자에게 있습니다. 하드웨어와 소프트웨어가 모두 온프레미스에 위치하는 경우, 필요에 따라 각 구성 요소를 관리, 업데이트 및 교체하는 업무는 사용자 및 사용자 팀이 수행해야 합니다.  클라우드 컴퓨팅을 사용하면 인프라의 단일, 여러 또는 모든 부분을 제3사가 관리하도록 할당하여 다른 중요한 사안에 집중할 수 있습니다.

클라우드 컴퓨팅 서비스는 서비스로서의 인프라(Infrastructure-as-a-Service, IaaS), 서비스로서의 플랫폼(Platforms-as-a-Service, PaaS), 서비스로서의 소프트웨어(Software-as-a-Service, SaaS)의 3가지 기본 유형에 해당하는 서비스로서의 클라우드 컴퓨팅 옵션을 제공하며, 관리 수준이 저마다 다릅니다.

이 글에서는 각 모델 유형, 장점 및 그러한 유형의 일부 또는 전체를 사용하여 요구 사항을 충족하는 클라우드 컴퓨팅 환경을 구축하는 방법에 대해 알아봅니다. 또한, 쉽게 이해할 수 있도록 각각의 몇 가지 예도 알아봅니다.


IaaS

서비스로서의 인프라 또는 IaaS는 온프레미스 인프라에서 한층 발전한 유형입니다. 이는 종량제 서비스로, 필요한 경우 제3사가 스토리지와 가상화와 같은 인프라 서비스를 인터넷을 통해 클라우드로 제공합니다. 

사용자는 운영 체제 및 데이터, 애플리케이션, 미들웨어 및 런타임을 담당하고 제공업체는 사용자가 필요로 하는 네트워크, 서버, 가상화 및 스토리지의 관리와 액세스를 담당합니다. 

제공업체가 사용자를 대신해 온사이트 데이터센터를 유지관리하거나 업데이트합니다. 대신, 사용자는 애플리케이션 프로그래밍 인터페이스(API) 또는 대시보드를 통해 인프라에 액세스하고 이를 제어합니다. 

IaaS는 필요한 구성 요소만 구매하고 필요에 따라 확장 또는 축소할 수 있는 유연성을 제공합니다. IaaS는 간접비가 낮고 유지관리 비용이 들지 않는 매우 경제적인 옵션입니다. 

IaaS는 개발 및 테스트 환경의 구축 및 제거가 빠르고 유연하다는 장점이 있습니다. 사용자는 개발 환경에서 구축해야 할 인프라만 사용하고 필요에 따라 확장 또는 축소하며, 개발이 완료되면 사용을 중단하고 사용량에 대한 비용만 지불합니다. 

IaaS의 주요 단점은 제공업체의 보안 문제 가능성, 제공업체가 여러 클라이언트와 인프라 리소스를 공유해야 하는 멀티 테넌트 시스템 및 서비스 신뢰성입니다. 탄탄한 업력과 평판을 보유한 신뢰할 수 있는 제공업체를 선택하면 이러한 단점을 방지할 수 있습니다. 

AWS, Microsoft Azure, Google Cloud와 같은 퍼블릭 클라우드 공급업체가 IaaS의 예시입니다.


PaaS

서비스로서의 플랫폼(PaaS)은 전체 온프레미스 인프라 관리가 조금 더 발전한 형태입니다. PaaS에서는 제공업체가 자체 인프라에서 하드웨어와 소프트웨어를 호스팅하고 이러한 플랫폼을 사용자에게 통합 솔루션, 솔루션 스택 또는 인터넷을 통한 서비스로 제공합니다.

주로 개발자와 프로그래머에게 유용한 PaaS는 보통 해당 프로세스와 관련된 인프라 또는 플랫폼을 구축하고 유지관리할 필요 없이 사용자가 자체 애플리케이션을 개발, 실행 및 관리할 수 있도록 해줍니다. 

사용자는 애플리케이션 코드를 작성, 빌드, 관리하지만 소프트웨어 업데이트 또는 하드웨어 유지관리와 같은 번거로움이 사라집니다. 빌드 및 배포를 위한 환경이 사용자에게 제공됩니다. 

PaaS는 개발자가 프레임워크를 개발하여 지속적으로 웹 기반 애플리케이션을 빌드 및 커스터마이징할 수 있는 방법입니다. 개발자는 기본 소프트웨어 구성 요소를 활용하여 자체 애플리케이션을 개발할 수 있으므로 자체적으로 작성해야 하는 코드의 양을 줄일 수 있습니다.

PaaS의 몇 가지 예로는 AWS Elastic Beanstalk, Heroku 및 Red Hat OpenShift가 있습니다.


SaaS

서비스로서의 소프트웨어(SaaS) 또는 클라우드 애플리케이션 서비스는 가장 포괄적인 형식의 클라우드 컴퓨팅 서비스로, 모든 애플리케이션은 제공업체가 관리하며 웹 브라우저를 통해 제공됩니다. 

제공업체가 소프트웨어 업데이트, 버그 수정 및 기타 일반 소프트웨어 유지관리 작업을 처리하며, 사용자는 대시보드 또는 API를 통해 애플리케이션에 연결합니다. 개별 시스템에 소프트웨어를 설치할 필요가 없으며 프로그램에 대한 그룹 액세스가 더욱 원활하고 안정적입니다. 

Outlook이나 Gmail과 같은 웹 기반 서비스가 지원되는 이메일 계정이 있다면 어디서든 컴퓨터에서 계정에 로그인하고 이메일을 수신할 수 있다는 점에서 SaaS라는 형태가 이미 익숙할 것입니다. 

SaaS는 소프트웨어 설치 및 업데이트를 처리할 인력이나 대역폭이 없으며 최적화가 그다지 필요하지 않거나 주기적으로 사용되는 애플리케이션이 있는 소기업에 매우 유용한 옵션입니다. 

SaaS로 시간과 유지관리를 줄일 수 있지만 제어, 보안 및 성능과 관련한 비용이 소요되므로 신뢰할 수 있는 제공업체를 선택하는 것이 중요합니다.

Dropbox, Salesforce, Google Apps 및 Red Hat Insights가 SaaS의 몇 가지 예입니다. 

728x90

https://svrforum.com/nas/35929

728x90

우분투(Ubuntu) 리눅스에 Vmware 설치하는 방법입니다.

64비트 리눅스용을 다운 받는다. (당연히 이 작업은 우분투에서 진행 한다.)

다운로드 받은 파일에 실행 권한을 준다.
$ chmod +x VMware-Workstation-Full-16.1.2-17966106.x86_64.bundle

관리자 권한으로 다운받은 파일을 실행한다.
$ sudo VMware-Workstation-Full-16.1.2-17966106.x86_64.bundle

설치시 혹은 설치 후에 커널관련 오류가 발생하면 다음과 같이 처리한다. 사실 이 글을 남기는 궁극적인 목적이다.
(커널헤더가 맞지 않는다는 오류)
$ sudo apt-get install build-essential linux-headers-$(uname -r)

VMware Tools 설치 시 커널헤더를 찾지 못하는 오류를 해결하려면 아래와 같이 심볼릭 링크를 해주면 된다.
$ sudo ln -s /usr/src/linux-headers-$(uname -r)/include/generated/uapi/linux/version.h /usr/src/linux-headers-$(uname -r)/include/linux/version.h

'IT > 가상화(Virtualization)' 카테고리의 다른 글

IaaS, PaaS 및 SaaS 비교  (0) 2021.09.17
ESXi 헤놀로지에 VM Tools 설치하기  (0) 2021.07.06
VMWare ESXi 6.7 USB NIC Driver  (0) 2021.07.06
Proxmox 설치 후 초기설정  (0) 2021.07.06
Proxmox 업데이트 설정 방법  (0) 2021.07.05
728x90

https://flings.vmware.com/usb-network-native-driver-for-esxi

https://vibsdepot.v-front.de/wiki/index.php/List_of_currently_available_ESXi_packages

 

NIC의 확장을 위해 USB NIC를 사용할 경우 필요한 드라이버 입니다.

 

파일을 다운로드 받아 ESXI에 업로드한 후

 

zip파일의 경우

# esxcli software vib install -d /절대경로/파일명.zip

 

공식파일이 아닌경우는 뒤에 -f 옵션을 넣어줍니다.

 

vib 파일의 경우는

# esxcli software vib install -v /절대경로/파일명.vib

 

공식파일이 아닌경우는 뒤에 -f 옵션을 넣어줍니다.

 

해주시면 드라이버가 설치됩니다.

 

설치완료 후 재부팅하고나면 드라이버를 인식하며

 

# esxcli software vib list

명령으로 현재 설치된 드라이버들을 확인 할 수있습니다.

 

Name                           Version                               Vendor           Acceptance Level    Install Date

 

-----------------------------  ------------------------------------  ---------------  ------------------  ------------

 

r8152                          2.11.0-1_vmw.650                      Realtek          CommunitySupported  2019-07-28

ESXi670-VMKUSB-NIC-FLING-39203948-offline_bundle-16780994.zip
0.43MB

728x90

1. 구독용 저장소 제거

# vi /etc/apt/sources.list.d/pve-enterprise.list

 

위 명령어로 엔터프라이즈용 소스를 vi를 통해 아래와 같이 주석처리해 줍니다.

#deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise 

 

2. 로그인시마다 표시되는 구독 안내 메시지 제거

# cd /usr/share/javascript/proxmox-widget-toolkit

# vi proxmoxlib.js

:set number로 vi 편집기 숫자행이 보이도록 설정 후

470번째 행쯤에 불필요한 메세지를 띄우는 녀석이 있습니다.

/data.status 등으로 검색하셔서 이동하셔도됩니다.

proxmoxlib.js 내에 data.status 비교 항목을 if (false) 로 수정하면 더이상 메세지가 나오질 않습니다.

 

3. 서비스 재시작

# systemctl restart pveproxy.service

728x90

# nano /etc/apt/sources.list

 

아래 행 추가 후 저장

 

# PVE pve-no-subscription repository provided by proxmox.com,

# NOT recommended for production use

deb http://download.proxmox.com/debian/pve buster pve-no-subscription

 

# apt-get update

# apt-get dist-upgrade

728x90

가상머신(Vmware) 네트워크 방식 3가지 Host-only(Vmnet1), Nat(Vmnet8), Bridge(Vmnet0)가 어떤 차이가 있는지 간단히 살펴본 후, ping으로 각각의 연결 상태를 실제로 확인해보겠습니다.

Host-only (Vmnet1) 연결 방식

Host-only 방식은 외부 네트워크와 연결 없이 Host-only 방식을 사용하는 Vmware끼리만 통신이 가능하다. 즉, Vmware끼리의 네트워크 대역이 따로 구축되어있다. 따라서 외부 네트워크, 호스트PC와는 통신이 안되고 서로 통신만 가능하다.

 

Vmware Host Only (VMnet1) 네트워크 연결 방식

 

 

아래와 같이 Vmware 2개를 Host-only 방식으로 변경해본다.

 

Vmware Workstation Host-Only 네트워크 연결

 

 

Host-only 방식으로 네트워크를 설정하면, Host PC와 Gateway의 192.168.0 대역과는 다르게 아래와 같이 192.168.137 대역을 따로 갖는다. IP는 각각 아래와 같다.

 

Host PC : 192.168.0.2 Gateway : 192.168.0.1 Vmware1 (Ubuntu) : 192.168.137.128 Vmware2 (Window7) : 192.168.137.129

 

Vmware1 (Ubuntu) 에서 ping을 사용해보면 같은 네트워크 대역의 Hosy-only 방식의 Vmware2 (Window7) 와만 통신이 되는 걸 볼 수 있다.

 

Vmware Host-Only 연결 확인

 

 

Nat (Vmnet8) 연결 방식

Nat 방식은 Vmware을 사용할 때, 가장 많이 사용하는 네트워크 방식이 아닐까 싶다. Nat 방식을 사용하는 Vmware은 IP를 호스트 PC에게서 할당받는다. 그리고 호스트 PC는 공유기에게서 IP를 할당받는다.

 

Vmware Net (VMnet8) 네트워크 연결 방식

 

 

아래와 같이 Vmware 2개를 Nat 방식으로 변경해본다.

 

Vmware Workstation Nat 네트워크 연결

 

 

Nat 방식으로 네트워크를 설정했을 때, IP는 아래와 같다.

 

Host PC : 192.168.0.2 Gateway : 192.168.0.1 Vmware1 (Ubuntu) : 192.168.21.130 Vmware2 (Window7) : 192.168.21.137

 

Vmware1 (Ubuntu) 에서 ping을 사용해보면 같은 Vmware (Windows7)과 외부, 호스트 PC 전부와 통신이 되는 것을 볼 수 있다.

 

Vmware Nat 연결 확인

 

Bridge (Vmnet0) 연결 방식

Nat과 Bridge는 Vmware가 IP 할당을 어디서 받느냐의 차이로 나뉜다.

 

Nat 방식을 사용하는 Vmware가 IP를 호스트 PC에게서 받았다면, Bridge 방식을 사용하는 Vmware는 IP를 공유기에게 부여받는다. 즉 공유기가 호스트 PC와 가상머신에 같은 네트워크 대역의 IP를 각각 할당하기 때문에 호스트 PC와 가상머신은 동일한 수준의 물리적 PC로 인식된다.

 

Vmware Bridge (VMnet0) 네트워크 연결 방식

 

 

아래와 같이 Vmware 2개를 Bridge 방식으로 변경해본다.

 

Vmware Workstation Bridge 네트워크 연결

 

Bridge 방식으로 네트워크 설정을 변경하면, IP가 아래와 같이 변한다. Vmware 1,2가 모두 같은 192.168.0 대역을 갖고 있다.

 

Host PC : 192.168.0.2 Gateway : 192.168.0.1 Vmware1 (Ubuntu) : 192.168.0.6 Vmware2 (Window7) : 192.168.0.5

 

Vmware1 (Ubuntu) 에서 ping을 사용해보면 같은 Vmware (Windows7)과 외부, 호스트 PC 전부와 통신이 되는 것을 볼 수 있다(Bridge 설정의 경우 방화벽을 꺼주면 호스트와 통신이 가능하다).

 

Vmware Nat 연결 확인

728x90

먼저 Arch Linux ISO를 다운로드합니다 (https://archlinux.org/download/)

 

다음으로, VMWare Workstation Pro를 실행하여 다운로드 받은 ISO 파일을 이용해서 설치합니다.

(설치 시 Guest Operating System 유형에서 Other Linux 5.x and later kernel 64-bit 을 선택하고 용량은 20G 이상 할당)

 

가상 머신이 자동으로 부팅되면 설정을 하나 더 변경해야 하므로 전원을 끕니다.

가상 머신의 Edit VirtualBox machine settings 설정화면에서 Options 탭을 클릭하고 Advanced 항목의 펌웨어 유형(Firmware type)에서 UEFI를 선택하고 저장합니다.

 

이제 가상 머신을 시작하십시오.

ISO에서 Arch Linux 설치 프로그램을 부팅해야합니다.

부팅하는 데 1 분 정도 기다리면 명령 줄 Arch Linux 설치 환경이 표시됩니다.

 

기본 네트워크 구성을 그대로 두고 아치 설치 환경이 네트워크서비스를 시작했기 때문에 인터넷 연결이 즉시 작동해야 합니다.

이를 확인하려면 다음 명령을 입력하고 패킷 손실없이 서버에 연결할 수 있는지 확인합니다.

# ping -c 4 uname.in

 

다음으로 시스템 시계를 업데이트합니다.

# timedatectl set-ntp true

 

다음으로 Arch 설치를 위해 디스크를 분할(파티션 설정)을 해야 합니다.

현재디스크 레이아웃을 보려면 다음을 입력하십시오.

# lsblk

sr0, loop0 장치 및 이전에 선택한 용량에 해당하는 sda 드라이브가 표시됩니다.

 

다음 단계에서는 이 설치에 사용할 파티션을 만들어야 하므로 다음을 입력합니다.

# cfdisk /dev/sda

gpt 레이블 유형을 선택하고 Enter를 누르십시오.

 

이제 파티션을 만드는 데 사용할 수있는 장치에 다음 3개의 파티션을 생성해야 합니다.

 

① EFI 파티션(FAT32) - New를 선택하고 파티션 사이즈는 500M로 입력하고 Type은 EFI System 으로 선택(/dev/sda1)

② swap 파티션 - New를 선택하고 파티션 사이즈는 1G로 입력하고 Type은 Linux swap 으로 선택(/dev/sda2)

③ root(/) 파티션(ext4) - New를 선택하고 파티션 사이즈는 18.5G로 입력하고 Type은 Linux filesystem 으로 선택(/dev/sda3)

 

3개의 파티션을 생성한 후 Write를 선택하고 yes를 입력합니다. 

그 후 Quit로 빠져나옵니다. lsblk로 확인하면 파티션 설정한 상태를 볼 수 있습니다.

 

이제 3개의 파티션이 있으므로 적절한 파일 시스템을 만들어야 합니다.

swap 파일 시스템은 아래명령으로 활성화합니다.

# mkswap /dev/sda2

# swapon /dev/sda2

 

다음으로 root 파일 시스템을 만듭니다

# mkfs.ext4 /dev/sda3

 

이제 다음 명령을 사용하여 EFI 파일 시스템을 만들 수 있습니다

# mkfs.fat -F32 /dev/sda1

 

이제 파일 시스템을 만들었으므로 설치를 계속하려면 마운트 해야 합니다.

먼저 root 파티션을 마운트하십시오

# mount /dev/sda3 /mnt

 

다음으로 boot 파티션을 마운트 할 디렉토리를 만듭니다.

# mkdir /mnt/boot

 

마지막으로 EFI 파티션을 해당 디렉토리에 마운트하십시오.

# mount /dev/sda1 /mnt/boot

 

이제 기본 Arch Linux 시스템을 구성하는 필수 패키지를 설치할 때입니다.

다음 명령을 입력하십시오.

# pacstrap /mnt base linux linux-firmware

이 명령은 몇 분 후에 완료됩니다.

 

이제 fstab 시스템이 부팅 될 때 파티션을 마운트 할 위치를 알 수 있도록 파일을 생성할 수 있습니다.

# genfstab -U /mnt >> /mnt/etc/fstab

 

이제 시스템 기반이 설치되었으므로 chroot해야합니다.

이를 수행하려면 다음 명령을 입력하십시오.

# arch-chroot /mnt

 

이제 시스템의 시간대, 현지화 및 호스트 이름을 사용자 정의해야 합니다.

# ln -sf /usr/share/zoneinfo/Asia/Seoul /etc/localtime

(zoneinfo 시간대를 찾으려면 디렉토리 및 하위 디렉토리를 탐색해야 할 수도 있습니다.)

 

다음 단계로 필수 편집 패키지를 설치해 봅니다.

# pacman -S vim vi htop nano noto-fonts-cjk terminus-font ttf-dejavu net-tools

 

이제 /etc/locale.gen 파일을 편집 해야 합니다.

# vi /etc/locale.gen

en_US.UTF-8 UTF-8 과 ko_KR.UTF-8 UTF-8 을 찾아 앞에 주석(#)을 제거하고 저장합니다.

 

다음으로 locale.conf 파일을 만들고 선호하는 텍스트 편집기를 사용하여 언어를 설정합니다.

다음과 같이 입력하고 저장합니다.

# vi /etc/locale.conf

LANG=en_US.UTF-8

LC_COLLATE=C

 

위 단계를 수행 한 후 다음 명령을 입력하여 로케일을 생성하십시오.

# locale-gen

 

다음으로 /etc/hostname 파일을 편집하여 호스트 이름 지정해 줍니다.

# vi /etc/hostname

ArchLinux

 

다음으로 /etc/hosts 파일을 편집합니다.

# vi /etc/hosts

우리가 ArchLinux hostname을 사용하기 때문에 입력항목은 다음과 같습니다.

 

127.0.0.1 localhost

::1 localhost

127.0.1.1 ArchLinux.localdomain ArchLinux

 

다음으로 Arch 가상 머신에 대한 네트워킹을 구성해야합니다.

지금은 Arch 설치 환경이 사전 구성된 systemd 네트워킹서비스를 자동으로 시작했기 때문에 네트워킹이 정상적으로 작동하고 있습니다.

새로 설치 한 후 다시 부팅 한 후에도 네트워킹이 계속 작동하려면 이제 해당 서비스를 활성화하고 구성해야 합니다.

다음 명령을 입력하십시오.

# systemctl enable systemd-networkd

# systemctl enable systemd-resolved

 

다음으로 다음을 입력하여 네트워크 인터페이스 이름을 확인하고 아래 사항을 입력합니다.

# ip addr

(lo 인터페이스를 제외하고 저의 경우에는 네트워크 이름이 ens33으로 되어 있습니다.)

 

# vi /etc/systemd/network/20-wired.network

 

[Match]

Name=ens33

 

[Network]

DHCP=yes

 

다음으로 루트 사용자의 비밀번호를 설정하십시오.

# passwd

 

Intel 프로세서를 사용하는 경우 Intel 마이크로 코드를 설치해야 합니다.

# pacman -S intel-ucode

(AMD의 경우는 amd-ucode)

 

VMware Workstation에서 전체 기본 Arch Linux 설치를 완료하는 마지막 단계는 부트 로더를 설치하는 것입니다.

먼저 부트 로더로 사용할 수 있도록 grub 및 efibootmgr 패키지를 설치합니다.

# pacman -S grub efibootmgr

 

다음으로 다음 명령을 사용하여 grub bootloader에 EFI partition을 설치합니다.

# grub-install --target=x86_64-efi --efi-directory=/boot --bootloader-id=GRUB

 

이제 grub bootloader에 기본 grub 구성 파일을 생성하기 만하면 됩니다.

다음 명령을 입력하십시오.

# grub-mkconfig -o /boot/grub/grub.cfg

 

기본 Arch Linux 가상 머신 설치가 완료되었습니다.

이제 파티션을 마운트 해제하고 시스템을 재부팅 할 수 있습니다.

# exit

# umount -R /mnt

# reboot

 

시스템이 재부팅되면 이전에 설정한 비밀번호를 사용하여 root 계정으로 ArchLinux VM에 로그인 할 수 있습니다.

 

일반적인 권장 패키지 사항 - https://wiki.archlinux.org/title/General_recommendations

응용 프로그램 목록 - https://wiki.archlinux.org/title/List_of_applications

 

SSH 설치

# pacman -S openssh

 

재부팅 시 sshd 서비스 자동 활성화

# sudo systemctl enable sshd

 

sshd 서비스 시작

# sudo systemctl start sshd

 

sshd 서비스 상태보기

# systemctl status sshd

 

<참고>

위에서 설치한 terminus-font를 콘솔 기본 글꼴로 영구적으로 만들려면 다음을 편집하세요.

# vi /etc/vconsole.conf

FONT=ter-g32n

다음에 가상 머신을 재부팅 할 때 시스템은 선택한 콘솔 글꼴을 사용합니다.

728x90

① VirtualBOX 설치

https://www.virtualbox.org/ 사이트 접속하여 다운로드

이때 VirtualBox <버전> Oracle VM VirtualBox Extension Pack 확장팩도 다운로드

 

② 확장팩 설치

파일 - 환경 설정 - 확장 에서 다운로드한 확장팩 파일 설치

 

③ 키보드 잡기 설정

파일 - 환경 설정 - 입력 - 가상 머신 으로 이동

호스트 키 조합 항목의 설정 칸에 커서를 놓고 원하는 키를 입력(예. Alt + Ctrl)

원하는 키 입력한 뒤 반드시 엔터키 치기. 엔터키를 누르지 않으면, 변경된 값이 저장되지 않음

확인 버튼 누르면 끝

 

④ 장치 - 드래그 앤 드롭 양방향 설정

 

⑤ 장치 - 클립보드 공유 양방향 설정

 

⑥ 게스트 확장 설치

장치 - 게스트 확장 CD 이미지 삽입 설치

CentOS 7 의 경우 - 게스트 확장 CD 설치 전 터미널을 열고 다음 명령어로 라이브러리를 설치 및 재부팅 후 게스트 확장 설치

#yum groupinstall "Development Tools"

#yum install kernel sources

#yum install kernel-devel

#yum install make

#yum install gcc

728x90

사전에 알아둘 사항

ESXi 호스트에 SSH로 접속가능한 상태여야 한다.

ESXi 패치는 누적패치(Cumulative Patch) 이기 때문에 가장 최근 버전만 설치하면 된다.

특별한 사유가 없는한 Image Profile Name이 “-standard”로 끝나는 프로필만 신경쓰도록 한다.

“-no-tools”의 경우 VMTools가 제거된 버전이다.

ESXi 6.0 -> 6.7로 Patch 파일을 가지고 업데이트 할 수 있습니다.

 

1) ESXi 서버에 접속하여 현재 설치된 ESXi의 버전을 확인한다. ‘호스트’ 페이지에서 ‘구성’ 항목의 ‘이미지 프로파일’ 버전을 확인하면 된다. 예 : ESXi-6.7.0-201905001-standard

2) VMware ESXi Patch Tracker 홈페이지(https://esxi-patches.v-front.de/ )를 방문하여 본인의 ESXi 설치 버전(예: v6.7.0) 페이지로 이동한 후 최신 패치에 대한 이미지 프로파일 버전을 확인한다.

3) VMware 홈페이지(https://www.vmware.com )로 이동하여 my vmware로 로그인한다. 로그인 후 우측 상단의 Product > All Products & Programs > Product Patches 로 이동한다.

4) 앞서 확인한 최신 버전의 패치가 동일하게 존재하는지 확인한 후 Download 버튼을 클릭하여 패치 파일을 다운로드 받는다.

5) 다운로드 받은 파일을 SSH 활성화 후 SFTP로 업로드하거나, 데이터스토어 브라우저를 활용하여 ESXi 서버에 업로드 한다.

 

패치 설치

1. 업데이트 해당 호스트 가상머신 모두 종료

 

2. Management console에서 해당 호스트 유지보수 모드 시작

   or

   # vim-cmd /hostsvc/maintenance_mode_enter

 

3. 라이센스 버전 확인

  # esxcli software vib list | grep esx-base

  or

  # vmware -v

 

4. 업데이트 zip파일 안의 업데이트 데이터 확인(이때 경로는 반드시 절대경로로 사용, 상대경로 사용하면 오류발생)

esxcli software sources profile list -d /vmfs/volumes/NVME/ESXi670-202103001.zip

standard와 no-tools 버전이 있는데

standard는 ESXi 자체 VM-Tools 내장,

no-tools는 VM-Tools가 없는 버전이다.

 

5. 데이터 스토어에 넣은 업데이트 zip 파일의 standard 실행(이때 경로는 반드시 절대경로로 사용, 상대경로 사용하면 오류발생)

# esxcli software profile update -d /vmfs/volumes/NVME/ESXi670-202103001.zip -p ESXi-6.7.0-20210304001-standard

(진행사항 없이 기다려야됨)

 

6. 호스트 재부팅

# reboot

재부팅 과정에서 SSH 연결이 끊어지므로, 재부팅이 완료되면 SSH를 재접속해야 한다.

 

7. 업데이트 버전 확인

# esxcli software vib list | grep esx-base

  or

# vmware -v

 

8. 유지보수 모드 해제

# vim-cmd /hostsvc/maintenance_mode_exit

 

업데이트 완료.

+ Recent posts