728x90

참고 URL : https://pve.proxmox.com/wiki/User_Management

 

User Management - Proxmox VE

A resource pool is a set of virtual machines, containers, and storage devices. It is useful for permission handling in cases where certain users should have controlled access to a specific set of resources, as it allows for a single permission to be applie

pve.proxmox.com

 

# pveum user add <ID>@pve -comment "<ID>"

# pveum passwd <ID>@pve

# pveum group add admin -comment "System Administrators"

# pveum acl modify / -group admin -role Administrator

# pveum user modify <ID>@pve -group admin

 

728x90

원문출처 : https://www.vinchin.com/vm-backup/export-import-proxmox-vm.html

 

How to Export and Import VM in Proxmox? | Vinchin Backup

This post talks about Benefits of exporting and importing VM in Proxmox and How to export and import a Proxmox VM.

www.vinchin.com

 

목차
  • Proxmox에서 VM 내보내기 및 가져오기의 이점
  • Proxmox VM을 내보내고 가져오는 방법은 무엇입니까?
  • Vinchin을 사용하여 Proxmox VM을 백업하고 복원하는 방법은 무엇입니까?
  • Proxmox 내보내기 및 가져오기 FAQ
  • 결론
강력한 VM 백업 솔루션을 찾고 계십니까? Vinchin 백업 및 복구를 사용해 보세요 !↘ 무료 평가판 다운로드

Proxmox 에서 가상 머신 내보내기 및 가져오기는 가상화된 환경을 관리하는 주요 작업 중 하나입니다. VM을 백업하든, 다른 노드로 마이그레이션하든, VM 이미지를 공유하든 관계없이 내보내기 및 가져오기 작업을 올바르게 수행하는 것이 중요합니다.

Proxmox에서 VM 내보내기 및 가져오기의 이점

Proxmox에서 VM 내보내기 및 가져오기를 수행할 때 얻을 수 있는 네 가지 주요 이점은 다음과 같습니다.

유연성:  Proxmox는 서로 다른 Proxmox 호스트 간에 가상 머신을 쉽게 마이그레이션할 수 있도록 하여 뛰어난 유연성을 제공합니다. 필요에 따라 VM 리소스를 재할당하고 관리할 수 있습니다.

단순성:  Proxmox는 직관적인 사용자 인터페이스와 명령줄 도구를 제공하므로 Proxmox VM 내보내기 및 가져오기 작업을 쉽게 사용할 수 있습니다. 하나의 Proxmox 환경에서 다른 환경으로 VM을 쉽게 내보내고 내보낸 VM 파일에서 VM을 빠르게 가져올 수 있습니다.

데이터 보안:  Proxmox VM을 내보내면 안정적인 백업을 생성하여 VM의 중요한 데이터를 효과적으로 보호할 수 있습니다. 필요한 경우 Proxmox VM 가져오기 작업을 통해 빠르고 제어된 복구가 가능합니다.

노드 마이그레이션 및 부하 분산:  Proxmox VM을 내보내면 Proxmox 클러스터의 노드를 쉽게 마이그레이션할 수 있습니다. 이는 로드 밸런싱, 리소스 최적화, 유지 관리 및 업그레이드에 유용합니다. 더 나은 리소스 할당 및 관리를 위해 필요한 경우 Proxmox VM을 다른 노드로 내보내고 Proxmox VM을 대상 노드로 가져올 수 있습니다.

Proxmox VM을 내보내고 가져오는 방법은 무엇입니까?

WinSCP는 Proxmox Virtual Environment  (Proxmox VE)  에서 가상 머신을 내보내고 가져오는 프로세스를 단순화하는 강력한 그래픽 파일 전송 도구입니다 . 전체 프로세스에는 Proxmox VM 백업, 나중에 사용하기 위해 VM 백업 내보내기, 필요할 때 VM 가져오기가 포함됩니다.

자세한 단계는 다음과 같습니다.

가상 머신 백업

1. VM 선택 >  백업 클릭 > 지금 백업 누르기

2. 백업 디자인 > 백업 클릭

TASK OK가  나타나면  백업 작업이 완료된 것입니다.

WinSCP를 사용하여 백업 다운로드

1. WinSCP를 두 번 클릭하고   팝업 페이지에  호스트 이름 , 사용자 이름 , 비밀번호를 입력하고 > 로그인을 클릭합니다.

2. 원격 디렉터리를 백업 디렉터리로 전환합니다(로컬 저장소의 백업 디렉터리는 /var/lib/vz/dump 입니다 ) > VM 백업 파일 찾기 > 마우스 오른쪽 버튼을 클릭하여 다운로드

 3. vma 백업 파일을 로컬 디렉터리에 다운로드하고 확인을 누르세요.

 

백업 업로드

1. 새 탭을 클릭  하고 위의 로그인 단계를 반복하여 다른 노드에 로그인합니다.

 2. 로컬 디렉터리를 방금 다운로드하고 백업한 디렉터리로 전환하고 > VM을 마우스 오른쪽 버튼으로 클릭한 후 > 업로드를 선택합니다.

 3. 업로드 경로를 입력하십시오:  /var/lib/vz/dump/ . (로컬 저장소의 백업 디렉토리는: /var/lib/vz/dump )> 확인을 클릭하십시오.

 

WinSCP에서 백업이 성공적으로 업로드되었음을 확인할 수 있습니다.

 가상 머신 복구

1. Proxmox VE에서 다른 노드에 로그인 > 적절한 업로드 저장소로 전환(로컬)

2. 방금 업로드한 vma 백업 파일 선택 > 복원 클릭 ​​> 관련 복원 매개변수 구성 >  복원 버튼 누르기

여기에서 복구가 성공적으로 완료되었음을 확인할 수 있습니다. 

Vinchin을 사용하여 Proxmox VM을 백업하고 복원하는 방법은 무엇입니까?

WinSCP를 사용하여 Proxmox VM을 가져오고 내보내는 것은 간단한 방법입니다. 그러나 업무상 중요한 환경에서는 데이터 무결성과 신뢰성을 보장하기 위해 전문적인 백업 솔루션을 권장합니다.

데이터 백업 솔루션이 필요하든 가상 머신 마이그레이션 솔루션이 필요하든 Vinchin Backup & Recovery  는 이상적인 선택입니다. 전문적인 백업 및 마이그레이션 솔루션으로서 Proxmox, VMware, Hyper-V, XenServer, XCP-ng, oVirt, RHV 및 기타 VM 플랫폼을 포함한 광범위한 가상 환경에 널리 적용 가능합니다.

에이전트 없는 백업 기술, 즉각적인 복구 및 V2V 마이그레이션  지원을 통해 Vinchin Backup & Recovery는 가상화된 환경에서 중요한 데이터를 포괄적으로 보호하고 효율적으로 관리하는 데 전념하고 있습니다.

Vinchin Backup & Recovery의 작동은 몇 가지 간단한 단계만으로 매우 간단합니다. 

Vinchin Backup & Recovery에서 VM을 백업하려면

1. 호스트에서 VM을 선택하기만 하면 됩니다.

2.그런 다음 백업 대상을 선택합니다. 

3.전략 선택

4.마지막으로 작업을 제출합니다.

Vinchin Backup & Recovery에서 VM을 복원하려면

1. 복원 지점 선택

2. 복원 대상 선택

3. 복원 전략 선택

4. 마지막으로 작업을 제출합니다.

위의 단계 중 하나라도 확실하지 않은 경우 Proxmox VM을 백업  하고 대상 호스트에서 VM을 복원하는 방법을 보여주는 비디오 자습서가 있습니다 . 또한 Vinchin은 사용자가 실제 환경에서 백업 및 마이그레이션 기능을 완벽하게 경험할 수 있도록  60일 무료 평가판을  제공합니다. 자세한 내용은 Vinchin에  직접 문의하거나  현지 파트너에게 문의 하세요 .

Proxmox 내보내기 및 가져오기 FAQ

1. 가상 머신을 다른 형식으로 내보낼 수 있나요?

A: 예, 다양한 가상화 플랫폼은 다양한 내보내기 형식을 지원합니다. 일반적인 형식에는 OVF(개방형 가상화 형식) 및 VMDK(VMware 가상 디스크 형식)가 있습니다. 가져오려는 대상 플랫폼에 따라 적절한 내보내기 형식을 선택할 수 있습니다.

2. 가져오고 내보낸 가상 머신이 다른 가상화 플랫폼과 호환됩니까?

A: 가상 머신 가져오기 및 내보내기는 일반적으로 가상화 플랫폼에 따라 다릅니다. 다양한 가상화 플랫폼은 다양한 VM 구성과 디스크 형식을 사용합니다. 따라서 한 플랫폼에서 다른 플랫폼으로 VM을 직접 가져오려면 형식 변환이나 기타 호환성 조정이 필요할 수 있습니다.

결론

Proxmox에서 가상 머신 내보내기 및 가져오기를 이해하는 것은 가상화된 환경을 효과적으로 관리하는 데 중요합니다. WinSCP는 중요한 비즈니스 요구 사항에 있어 작동 용이성을 제공하는 반면, Vinchin 백업 및 복구는 데이터 무결성과 신뢰성을 보장하는 전문가급 솔루션을 제공합니다.

728x90

원문출처 : https://ploz.tistory.com/entry/proxmox-%EB%8B%A4%EB%A5%B8-%EC%84%9C%EB%B2%84%EB%A1%9C-VM-migration%EC%9D%B4%EC%A0%84%ED%95%98%EA%B8%B0

 

[proxmox] 다른 proxmox 서버로 VM migration(이전)하기

Cluster 되어 있지 않거나 PBS(proxmox backup server)를 통하지 않고 vzdump & qmrestore 를 이용하여 다른 proxmox 서버로 VM을 이전한다. vm dump GUI 상에 Backup을 사용하여 dump를 뜨거나 CLI상에서 dump를 뜰 수 있다.

ploz.tistory.com

 

Cluster 되어 있지 않거나 PBS(proxmox backup server)를 통하지 않고 vzdump & qmrestore 를 이용하여 다른 proxmox 서버로 VM을 이전한다.

 

 

 

vm dump

GUI 상에 Backup을 사용하여 dump를 뜨거나 CLI상에서 dump를 뜰 수 있다.

방식은 동일 하므로 GUI에서 Backup 하는 방법으로 진행한다.

 

VM - Backup - Backup now

 

 

Backup이 진행 될 때 상태창에 JOB 명령어와 저장되는 위치를 확인 할 수 있다.

 

 

 

 

dump 파일 복사

'/var/lib/vz/dump/vzdump-qemu-103-2023_04_25-17_21_32.vma.zst' 경로에 파일을 이전하고자 하는 서버에 복사한다.

위치는 아무곳이나 상관없다.

 

scp vzdump-qemu-103-2023_04_25-17_21_32.vma.zst root@<another proxmox ip>:<path/to/directory>

 

 

 

vm dump restore

이전하고자 하는 proxmox 에 사용하지 않는 VM ID 로 restore 한다.

주의. 스토리지 경로가 다르다면 옵션을 이용하여 스토리지를 지정하여 준다.

qmrestore vzdump-qemu-103-2023_04_25-17_21_32.vma.zst <VM ID> -- storage <storege ID>

 

 

 

restore 가 완료 된 후 'vzdump-qemu-103-2023_04_25-17_21_32.vma.zst' 파일은 삭제해도 된다.

728x90

원문출처 : https://blog.dalso.org/article/proxmox-cluster-not-ready-no-quorum-%ED%95%B4%EA%B2%B0%ED%95%98%EA%B8%B0

 

Proxmox Cluster not ready - no quorum? 해결하기 - 달소씨의 하루

안녕하세요. 달소입니다. 이번글은 Proxmox에서 Cluster를 이용한 환경구성에서 Node 한개가 꺼져있을때 아래와같이 발생하는 문제 해결방법입니다. Proxmox에서는 node수에 따라서 아래처럼 vote수와 quo

blog.dalso.org

 

이번글은 Proxmox에서 Cluster를 이용한 환경구성에서 Node 한개가 꺼져있을때 아래와같이 발생하는 문제 해결방법입니다.

Proxmox에서는 node수에 따라서 아래처럼 vote수와 quorum이 존재하는데요.

quorum은 분산시스템. 즉, 클러스터에서 작업을 수행하기위해 분산트랜잭션이 획득해야하는 최소 투표수를 의미합니다.

그러니까 Proxmox에서 Cluster에 Node 2대가 있다면 이 quorum도 당연히 2가 설정되어 두 노드가 온라인 상태여야만 명령을 내릴수있다는게 됩니다.

근데 저의 환경에서는 굳이 Sub Proxmox를 24시간 온라인 상태로 켜놓을 이유가 없습니다.. 전기세만 들어가지..

해결방법

구글링해보니 해당 Qourum을 1로 설정하는방법이 있더군요.!

이렇게 설정을하게되면 Node가 하나만 켜있더라도 정상적으로 명령을 실행할 수 있습니다.

Proxmox 의 쉘로 진입해서 아래와같이 명령어를 입력해줍니다.

pvecm expected 1

명령 후 pvecm status 로 확인해보면 quorum이 1로 바뀐걸 확인하실 수 있고 

 

vm 실행/종료 등과 같이 모든 명령이 잘 작동하는걸 확인하실 수 있습니다.

 

728x90

원문출처 : https://it-svr.com/proxmox-ve-node-to-node-migration/

 

Proxmox VE 노드간 VM/LXC 이전(복제)하기.

안녕하세요. 달소입니다 ZFS 관련 글을 쓰려다가.. 앞서 클러스터를 미리 만들어놨기때문에 이어서 노드에서 노드간에 VM 이전 / 복제를 한번 진행해보려고 합니다. 클러스터 구성을 위해 ESXi 밑

it-svr.com

 

ZFS 관련 글을 쓰려다가.. 앞서 클러스터를 미리 만들어놨기때문에 이어서 노드에서 노드간에 VM 이전 / 복제를 한번 진행해보려고 합니다.

클러스터 구성을 위해 ESXi 밑에 테스트서버로 구성한 Proxmox Node 2대이기때문에 중첩가상화로 VM생성은 하지않고 LXC Container를 통해서 에제를 진행해보겠습니다.

사전 준비사항

Proxmox Cluster 구성(Node 1,2)

 

 

LXC 컨테이너 생성

 

 

노드간 VM(LXC) 이전하기.

먼저 가장중요한점은 노드간 VM/LXC 이전의 경우 라이브로 이전이 불가능합니다.(공식포럼에서도 데이터 무결성을 위해 반드시 정지 후 이전을 강조합니다.)

혹 무중단으로 이전해야된다고한다면 복제 -> 이전 과정으로 복제됐을때의 기록으로 무중단 이전이 가능하긴 합니다.(혹은 스냅샷 백업 후 복구)
물론 이경우에는 복제 후 쌓이는 데이터에 대해서 약간의 데이터 손실이 있을 수 있습니다.

이전방법은 매우 쉽습니다.

운영중인 VM/LXC 컨테이너를 중지시키고 우클릭 후 이전을 눌러주시면 자연스럽게 해당 컨테이너가 종료되고 노드간 이전이 완료되면 자동으로 그 노드에서 컨테이너가 바로 실행됩니다.

소스노드와 대상노드 확인

자동으로 다시시작되기 때문에 따로 해줄건없습니다 ㅎㅎ
마찬가지로 백업 복구도 가능하기때문에
여러대의 서버를 운영중이라면 아주 유용하게 사용할수있을듯합니다.

백업 복구 응용하면 이렇게 무중단으로도 이전가능합니다

728x90

원문출처 : https://it-svr.com/proxmox-qemu-agent-install/

 

Proxmox 에서 QEMU Agent 설치하기.

안녕하세요. 달소입니다. ESXi에서 Proxmox 로 넘어오신분들이라면 아마 VM-Tools에 대해서 많이들어보셨을거라 생각합니다. 기본적으로 가상머신을 좀더 효율적으로 사용할 수 있게 도와주는 툴인

it-svr.com

 

ESXi에서 Proxmox 로 넘어오신분들이라면 아마 VM-Tools에 대해서 많이들어보셨을거라 생각합니다.

기본적으로 가상머신을 좀더 효율적으로 사용할 수 있게 도와주는 툴인데요. 이를통해서 Host 와 Guest 간에 여러가지 기능들을 할 수 있도록 지원해줍니다.(ACPI,Monitoring 등등)

qemu-guest-agent란?

qemu-guest-agent는 게스트에 설치되는 도우미 데몬입니다. 호스트와 게스트 간에 정보를 교환하고 게스트에서 명령을 실행하는 데 사용됩니다.

Proxmox VE에서 qemu-guest-agent는 주로 두 가지 용도로 사용됩니다.

  1. ACPI 명령이나 Windows 정책에 의존하는 대신 게스트를 올바르게 종료하려면
  2. 백업을 만들 때 게스트 파일 시스템을 고정하려면(Windows의 경우 볼륨 섀도 복사본 서비스 VSS 사용)

설치방법은 OS별로 상이하나 Ubuntu 기준으로 말씀드리겠습니다.

먼저 Guest에서 QEMU Agent를 사용할수있도록 옵션에서 활성화시켜주세요!

VM -> 옵션 -> QEMU GuestAgent를 사용설정.

그리고 플랫폼에 따라 설정을 진행합니다.

Ubuntu의 경우 apt-get install qemu-guest-agent

Redhat 계열 OS의 경우 yum install qemu-guest-agent

입니다. 윈도우는 맨아래 출처에서 드라이버를 다운로드받고설치해주셔야합니다.

설치후에는 agent를 실행시켜주시면 자동으로 인식합니다.

systemctl start qemu-guest-agent

다시 VM 대시보드를 확인해보면 아래처럼 안보이던 ip도 보이고 시스템 종료를 눌렀을때 안정적으로 시스템이 종료됩니다.

종료도 잘됩니다.

728x90

원문출처 : https://it-svr.com/proxmox-cluster-node/

 

Proxmox Cluster를 이용한 Node 연결하기.

안녕하세요. 달소입니다. 이번에는 Proxmox의 핵심기능중 하나인 Cluster입니다. ESXi에서 vMotion으로 할수있는  데이터센터에서 데이터센터로 노드간 VM이동등 서버여러대의 관리부터 각종 기능까지

it-svr.com

 

이번에는 Proxmox의 핵심기능중 하나인 Cluster입니다.
ESXi에서 vMotion으로 할수있는  데이터센터에서 데이터센터로 노드간 VM이동등 서버여러대의 관리부터 각종 기능까지 사용할 수 있는 좋은 기능입니다.

Proxmox Cluster란?

pvecm 를 사용하여 새 클러스터를 만들고, 노드를 클러스터에 가입하고, 클러스터를 떠나고, 상태 정보를 얻고, 기타 다양한 클러스터 관련 작업을 수행할 수 있습니다. Proxmo x C 클러스터 파일 시스템 ( " pmxcfs ")은 클러스터 구성을 모든 클러스터 노드에 투명하게 배포하는 데 사용됩니다.

노드를 클러스터로 그룹화하면 다음과 같은 이점이 있습니다.

중앙 집중식 웹 기반 관리
다중 마스터 클러스터: 각 노드가 모든 관리 작업을 수행할 수 있습니다.
corosync 를 사용하여 모든 노드에서 실시간으로 복제되는 구성 파일 저장을 위한 데이터베이스 기반 파일 시스템인 pmxcfs 사용
물리적 호스트 간에 가상 머신 및 컨테이너의 손쉬운 마이그레이션
빠른 배포
방화벽 및 HA와 같은 클러스터 전체 서비스

쉽게말해 여러 서버를 웹 사이트에 하나로 통합하여 관리할 수 있다는 뜻입니다.
단순히 서버의 상태만 볼수있는게 아닌 각 VM의 가상머신 LXC 컨테이너등의 생성/삭제 등등 모두 가능합니다

가장 핵심기능은 노드간 가상 머신 및 컨테이너의 복제입니다.
노드1에서 사용하다가 노드2로 옮길 수 있고 뭐 그런거죠 ㅎㅎ

여기서는 간단하게 Proxmox에서 클러스터를 만들고 노드를 가입시켜보겠습니다.

테스트환경

Proxmox 7.1-7 2대

Cluster 생성하기

클러스터 생성은 매우 간단합니다.

이렇게 클릭 두번으로 클러스터 생성은 끝납니다 ㅎㅎ

클러스터 가입하기

이제 만든 클러스터의 가입정보를 눌러주세요.
클러스터의 가입정보를 가지고 노드의 클러스터 가입이 가능합니다.

이제 가입하고자 하는 노드에서 클러스터 가입을 누른뒤에 위 정보를 복붙해주면

아래처럼 피어주소가 나오며 연결하는 노드의 PW를 입력 후 가입을 누르면 클러스터 가입이 됩니다.
*주의할점은 가입하는 노드에 VM이 있으면 가입이 불가능합니다.

쉽게 클러스터가 연결되는걸 확인하실수있습니다.

728x90

원문출처 : https://babo-it.tistory.com/89

 

Proxmox Cluster 제거

이번에는 Proxmox Cluster 제거 방법에 대해서 알아보겠습니다 Proxmox에서 클러스터 제거는 웹에서 불가합니다. 버튼 역시 찾아 볼수 없습니다. 다른 하나는 제가 못찾은 거 일 수도 있습니다. 하지만

babo-it.tistory.com

 

Proxmox에서 클러스터 제거는 웹에서 불가합니다. 버튼 역시 찾아 볼수 없습니다. 다른 하나는 제가 못찾은 거 일 수도 있습니다. 하지만 일단 찾지 못하였으니. 명령어로 제거 하는 방법을 행하여 보도록 하겠습니다.

아래 명령어로 proxmox의 클러스터 정보를 확인 할 수 있습니다.

pvecm status

노드 정보를 확인 했으면 아래와 같이 노드를 보겠습니다.

이중 우리는 4번째 노드를 제거 할 것입니다.

root@empathize:~# pvecm nodes

Membership information
----------------------
    Nodeid      Votes Name
         1          1 empathize (local)
         2          1 empathize2
         3          1 empathize3
         4          1 empathize4

 

제거 명령어는 아래와 같습니다.

4번째 노드는 제거 되었습니다. 이제 확인을 해봐야 겠죠

root@empathize:~# pvecm delnode empathize4
Killing node 4
root@empathize:~# pvecm nodes

Membership information
----------------------
    Nodeid      Votes Name
         1          1 empathize (local)
         2          1 empathize2
         3          1 empathize3

제거된 화면

지금까지 proxmox에서의 노드 제거 방법에 대해 알아 봤습니다.

여기서 알아야 할 명령어는 몇개 되지 않습니다.

  • 클러스터의 상태 정보 : pvecm status
  • 클러스터 노드 : pvecm nodes
  • 클러스터에서 노드 제거 : pvecm delnode [노드명]

proxmox 사용하시는 분들에게 유용한 자료가 되었으면 합니다.

 

그리고 전체 클러스터 삭제에대해서도  잠시 알고 넘어 가도록 하겠습니다.

systemctl stop pve-cluster corosync
pmxcfs -l
rm /etc/corosync/*
rm /etc/pve/corosync.conf
killall pmxcfs
systemctl start pve-cluster

위와 같이 해 주시면 전체 클러스터가 삭제 될 것입니다.

728x90

원문출처 : https://babo-it.tistory.com/88

 

proxmox 클러스터 연결

안녕하세요. TED입니다. 이번에는 proxmox의 클러스터 연결을 하는 방법을 알아보려 합니다. 클러스터 연결은 상당히 쉽습니다. 웹에서 연결을 하는 방법에 대해서 알아 보겠습니다. 우선 먼저 아

babo-it.tistory.com

 

클러스터 연결은 상당히 쉽습니다. 웹에서 연결을 하는 방법에 대해서 알아 보겠습니다. 우선 먼저 아래와 같은 경로로 찾아 들어갑니다.

Datacenter > Cluster > Create Cluster

아래와 같이 클러스터 연결을 만들어 볼 수 있습니다. 만들고 나면 이제 다른 Nodes를 연결해 주면 됩니다.

이제 그럼 다른 노드에서 어떻게 붙여야 하는지 보겠습니다.

저는 4개의 노드를 사용한다고 지난번에 한번 이야 했던 적이있습니다. 3개는 이미 클러드터로 연결되었고 1대만 남겨둔 상황이였는데요

그럼 이 한대 마저도 클러스터 연결을 하겠습니다. Datacenter > Cluster > Join Information 을 눌러주면 아래와 같은 화면이 나옵니다. 

그리고 Copy Informaiton을 해줍니다. 그런 이후 신규로 추가해줄 노드로 돌아 갑니다.

DataCenter > Cluster > Join Cluster 로 가서 아까 복사해준 Cluster Information 을 아래와 같이 붙여 넣어 연결해 줍니다.

cluster 명은 empathize로 하였습니다 해당 클러스터에 연결해주기를 누르면 끝납니다.

아래와 같이 3개의 node에서 4개의 node로 변경 된 것을 확인 할 수 있습니다.

추가 전

추가 후

클러스터 추가는 글로 쓰니 조금 복잡해 보이는데 한두번 해보면 아주 쉽게 하실 수 있습니다.

하지만 클러스터를 제거 하려면 웹에서 제가가 불가능 합니다.

728x90

원문출처 : https://it-svr.com/proxmox-backup-server-nfs-datastore/

 

Proxmox Backup Server 에서 시놀로지/헤놀로지 NFS 데이터 저장소 사용 설정하기.

안녕하세요. 달소입니다. 이번글은 앞서 설치한 PBS 에서 데이터스토어로 NFS를 사용하는방법입니다. Proxmox 백업을 위한 PBS(Proxmox Backup Server)설치하기.안녕하세요. 달소입니다. 앞서 Proxmox 를 설명

it-svr.com

 

과정이 꽤나 복잡하나 잘 따라만 하신다면 크게 어려움없이 설정하실 수 있을거라 생각합니다.

시놀로지/헤놀로지에서 NFS 저장소 만들기

먼저 사용하고 계신 시놀/헤놀에서 NFS 저장소를 만들어주세요.

공유폴더를 만들고 NFS 접근권한셋팅을해주겠습니다.

생성한 공유폴더에 편집 -> NFS 권한 -> PBS 서버의 ip를 입력해주고 설정합니다.

그리고 아래 NFS 마운트 경로를 미리 확인해주세요.

이제 PBS에서 해당 NFS를 마운트하겠습니다.

PBS에서 NFS 마운트하기

먼저 shell로 이동한뒤 기본패키지를 설치해줍니다.

기본적으로 패키지가 설치되어있긴하나 이왕이면 최신버전으로 ㅎㅎ

그리고 아래 과정들을 통해 마운트할 디렉터리를 만들고 NFS를 마운트해주세요.
*volume2 이하 경로는 개인마다 다릅니다.

mkdir -p /data/PBS_NFS
chown backup:backup /data/PBS_NFS
chmod 775 /data/PBS_NFS
mount 192.168.1.30:/volume2/Proxmox_PBS /data/PBS_NFS
touch /data/PBS_NFS/test.txt

시놀/헤놀에서도 아래처럼 test.txt 파일이 생성된걸 확인하실 수 있습니다.

이제 재부팅시에도 NFS가 자동으로 마운트 되도록  아래 명령어로 fstab에 추가설정을진행해줍니다.

echo "192.168.1.30:/volume2/Proxmox_PBS /data/PBS_NFS nfs defaults 0 0" >> /etc/fstab

PBS에 NFS 데이터 저장소 추가하기

PBS 메인 UI로 가서 데이터스토어 추가를 해주신뒤 아래처럼 내용을 작성해줍니다.

Backing Path 는 마운트된 경로입니다.

이렇게 데이터스토어를 생성해도 아래처럼 Permission deined가 나오신다면 chmod 755로 NFS쪽 권한부여를 추가로해주시면됩니다

사용자계정을만들어서 권한부여를 진행하겠습니다.

구성 -> 접근관리 -> 사용자 관리 -> 추가 -> 계정 추가.

계정이 생성되었으니 이제 권한부여를 진행하겠습니다.

이제 Proxmox Backup Server를 Proxmox VE 에 추가할수있도록 셋팅해보겠습니다.

미리 쉘에서 아래 명령어를 통해 인증서의 Fingerprint값을 미리 복사해주세요.

proxmox-backup-manager cert info | grep Fingerprint

Proxmox VE에 PBS 서버 추가하기

아래처럼 내용을 잘 추가해주세요.

요렇게 잘 보이시면됩니다!

백업은 항상그렇듯 VM에서 데이터스토어만 지정해주시면 잘됩니다.

증분백업도 잘되는군요 ㅎㅎ

참조 : https://crepaldi.us/2021/03/07/how-to-setup-nfs-on-synology-nas-for-proxmox-backup-server-to-use-as-datastore/

728x90

Proxmox를 처음 설치하고나서 네트워크 설정을 해줘야 정상적으로 작동한다

/etc/resolv.conf

domain skbroadband //skbroadband를 사용하고있기에 이렇게 적어주는 것
search skbroadband
nameserver [해당통신사의 DNS주소]

/etc/network/interfaces

auto lo
iface lo inet loopback

iface [인터페이스 이름] inet manual

auto [가상 인터페이스 이름]
iface [가상 인터페이스 이름] inet dhcp //dhcp로 설정할것
	bridge-ports [인터페이스 이름]
    bridge-stp off
    bridge-fd 0
728x90

원문출처 : https://anyun.org/a/xitongwendang/2023/0626/13122.html

 

VMware ESXi8.0U1a下安装群晖最新系统DSM7.2.64750 | 安云网 – AnYun.ORG

输入用户名或电子邮箱地址,您会收到一封新密码链接的电子邮件。

anyun.org

 

VMware ESXi8.0U1a에 Synology의 최신 시스템 DSM7.2.64750을 설치합니다.

1. ESXi8.0U1a 설치

ESXi8 설치 중 VMFSL 파티션이 너무 커지는 문제 해결

먼저 시스템이 부팅될 때 Shift+o를 눌러 명령줄을 입력합니다.

그런 다음 runweasel 다음에 명령을 입력하고 공백을 입력한 다음 autoPartitionOSDataSize=8192를 입력합니다.

그런 다음 "Enter 키"를 눌러 설치를 계속하세요. 단계는 비교적 간단합니다.

( 사진을 클릭 하면 확대됩니다)

( 사진을 클릭 하면 확대됩니다)

2. apl ESXi 버전 가이드를 다운로드하세요.

https://github.com/wjz304/arpl-i18n

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

3. ESXi 스토리지의 apl 부팅 파일에 해당하는 두 개의 vmdk 파일을 업로드합니다.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

4. ESXi8의 vSwitch0 스위치 보안 설정

(사진을 클릭하면 확대됩니다)

5. 가상 머신 생성

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

  • CPU 및 메모리 크기는 사용자가 정의합니다.
  • 자신의 하드 드라이브를 추가하고, 컨트롤러에 대해 SATA 유형을 선택한 다음, 자신의 하드 드라이브를 SATA(0:0)로 설정하세요.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

  • 가상 하드 디스크는 SATA(0:1)입니다.

  • 네트워크 어댑터는 E1000e 유형입니다.

(사진을 클릭하면 확대됩니다)

  • BIOS로 설정된 부팅 옵션

6. Synology 가상 컴퓨터를 시작합니다.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

로더 구성 옵션을 자동으로 입력합니다.

IP가 자동으로 획득되기를 기다리면 브라우저는 프롬프트된 URL 주소 http://IP:7681 을 엽니다.

(사진을 클릭하면 확대됩니다)

7. 모델 선택

예를 들어 DS3622xs+

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

8. 빌드 번호 선택

예를 들어 최신 64750

(사진을 클릭하면 확대됩니다)

9.로더 빌드

(사진을 클릭하면 확대됩니다)

이때, 해당 모델의 pat 파일이 자동으로 다운로드됩니다.

(사진을 클릭하면 확대됩니다)

10.로더를 부팅합니다.

Build 완료 후 부팅 시작

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

11. DSM 시스템에 로그인합니다.

DSM 웹 인터페이스가 여전히 표시되지 않으면 ESXi 콘솔에서 가상 머신을 다시 시작할 수 있습니다.

(사진을 클릭하면 확대됩니다)

12. 이때 DSM을 부팅합니다.

(사진을 클릭하면 확대됩니다)

13. DSM7.2 시스템 설치

공식 웹사이트에서 pat 파일 DSM_DS3622xs+_64570.pat를 다운로드하는 것이 좋습니다.

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

14. 프롬프트에 따라 다음 단계를 계속하여 Synology 설치를 완료합니다.

과정의 스크린샷은 다음과 같습니다

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

(사진을 클릭하면 확대됩니다)

728x90

https://tteck.github.io/Proxmox/

 

Proxmox VE Helper Scripts | Scripts for Streamlining Your Homelab with Proxmox VE

 

tteck.github.io

 

Proxmox VE Helper Scripts
Scripts for Streamlining Your Homelab with Proxmox VE

728x90

원문출처 : https://svrforum.com/recent/968224

 

서버포럼 - Proxmox CPU 마이크로코드 패치하기.(CPU 펌웨어패치)

안녕하세요. 달소입니다. 이번글에서는 Proxmox가 설치된 하드웨어에서 최신 CPU 마이크로 코드를 설치하는 방법입니다. CPU의 Microcode란 무엇인가요? CPU의 Microcode는 CPU의 명령어 집합을 구현하는

svrforum.com

 

https://tteck.github.io/Proxmox/

 

Proxmox VE Helper Scripts | Scripts for Streamlining Your Homelab with Proxmox VE

 

tteck.github.io

 

728x90

원문출처 : https://www.servethehome.com/how-to-pass-through-pcie-nics-with-proxmox-ve-on-intel-and-amd/

 

How to Pass-through PCIe NICs with Proxmox VE on Intel and AMD

We have a quick how-to guide for pass-through PCIe NICs with Proxmox VE on Intel and AMD. This is often used for pfSense and OPNsense

www.servethehome.com

 

Proxmox VE 웹 GUI 통과할 NIC 선택

오늘 빠른 것은 NIC를 Promxox VE의 가상 머신으로 전달하기 위한 매우 간단한 자습서입니다. 통과 NIC는 하이퍼바이저 오버헤드를 방지하고 가상 NIC와 pfSense 및 OPNsense와 같은 일부 방화벽 어플라이언스를 사용하여 호환성 문제를 해결하는 데 도움이 될 수 있습니다. 단점은 NIC가 SR-IOV를 지원하지 않는 한 이 구성에서 공유 장치가 아닐 가능성이 높다는 것입니다.

1단계: BIOS 설정

가장 먼저 해야 할 일은 시스템에서 IOMMU 기능을 켜는 것입니다. 이를 위해서는 CPU와 플랫폼이 해당 기능을 지원해야 합니다. 오늘날 대부분의 플랫폼은 IOMMU를 지원하지만 일부 이전 플랫폼은 지원하지 않습니다. Intel 플랫폼에서는 이를 "VT-d"라고 합니다. Intel Virtualization Technology for Directed I/O(VT-d)의 약자입니다.

Intel VT D를 활성화하여 IOMMU 작동

 

AMD 플랫폼에서는 AMD-Vi를 옵션으로 볼 수 있습니다. 때로는 다른 시스템 펌웨어에서 IOMMU를 볼 수 있습니다. 활성화하려는 옵션입니다.

물론 이것은 Proxmox VE이므로 BIOS에 있는 동안에도 기본 가상화가 켜져 있는지 확인하고 싶을 것입니다. 또한 이 가이드를 사용하는 사람들에게 주요 초점이 될 것이므로 시스템에 방화벽/라우터를 만드는 경우 일반적으로 AC 전원 설정을 "항상 켜짐" 또는 "마지막 상태"로 설정하는 것이 좋습니다. 정전이 발생하면 네트워크가 즉시 복구됩니다.

다음으로 GRUB 또는 systemd를 부트로더로 사용하고 있는지 확인해야 합니다.

2단계: GRUB 또는 systemd를 사용 중인지 확인

이것은 새로운 단계이지만 최신 버전의 Proxmox VE를 설치하고 ZFS를 루트로 사용하는 경우(향후 확장될 수 있음) GRUB이 아닌 systemd를 사용하고 있을 가능성이 높습니다. 설치 후 이 명령을 사용하여 사용 중인 것을 확인합니다.

efibootmgr -v

"File(\EFI\SYSTEMD\SYSTEMD-BOOTX64.EFI)"와 같은 내용이 표시되면 GRUB이 아닌 systemd를 사용하고 있는 것입니다.

또 다른 이점은 부팅할 때 GRUB이 포함된 블루 스크린과 OS로 들어가기 직전에 여러 옵션이 표시되면 GRUB을 사용하고 있는 것입니다. 다음과 같은 내용이 표시되면 systemd를 사용하고 있는 것입니다.

Proxmox VE 시스템 부팅 메뉴

 

이는 많은 이전 가이드가 GRUB를 사용하고 있기 때문에 중요하지만 systemd를 사용하고 GRUB 지침을 따르는 경우 NIC 패스스루에 필요한 IOMMU를 활성화하지 않습니다.

3a단계: GRUB를 사용하여 IOMMU 활성화

GRUB가 있고 현재 대부분의 설치가 있는 경우 구성 파일을 편집해야 합니다.

nano /etc/default/grub

Intel CPU의 경우 quiet intel_iommu=on을 추가합니다.

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

AMD CPU의 경우 quiet amd_iommu=on을 추가합니다.

GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on"

다음은 배치할 위치를 보여 주는 인텔 라인이 있는 스크린샷입니다.

Proxmox VE Nano Grub Quiet Intel Iommu On

 

선택적으로 IOMMU PT 모드를 추가할 수도 있습니다. PT 모드는 패스스루가 사용될 때 시스템의 다른 PCIe 장치의 성능을 향상시킵니다. 이것은 Intel 및 AMD CPU에서 작동하며 iommu=pt입니다. 다음은 추가될 AMD 버전이며 인텔 스크린샷은 다음과 같습니다.

GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt"

이것이 진행되는 스크린 샷은 다음과 같습니다.

Proxmox VE Nano Grub Quiet Intel Iommu On Iommu Pt

 

저장하고 종료하는 것을 잊지 마십시오.

이제 GRUB을 업데이트해야 합니다.

update-grub

이제 4단계로 이동합니다.

3a단계: systemd를 사용하여 IOMMU 활성화

2단계에서 systemd를 사용하고 있는 것을 발견한 경우 GRUB에 비트를 추가해도 작동하지 않습니다. 대신 다음과 같이 하십시오.

nano /etc/kernel/cmdline

Intel CPU의 경우 다음을 추가하십시오.

quiet intel_iommu=on

AMD CPU의 경우 다음을 추가하십시오.

quiet amd_iommu=on

다음은 인텔 버전을 사용하여 추가할 위치에 대한 스크린샷입니다.

Proxmox VE Systemd Quiet Intel_iommu=on

 

선택적으로 IOMMU PT 모드를 추가할 수도 있습니다. 이것은 Intel 및 AMD CPU에서 작동하며 iommu=pt입니다. 다음은 추가될 AMD 버전이며 인텔 스크린샷은 다음과 같습니다.

quiet amd_iommu=on iommu=pt

인텔 스크린샷은 다음과 같습니다.

Proxmox VE Systemd Quiet Intel_iommu=on Iommu=pt

 

이제 부팅 도구를 새로 고쳐야 합니다.

proxmox-boot-tool refresh

이제 4단계로 이동합니다.

4단계: 모듈 추가

대부분은 위의 작업이 완료된 후 즉시 재부팅되며 이는 아마도 좋은 습관일 것입니다. 일반적으로 저는 시간을 절약하기 위해 모듈을 추가하는 것을 좋아합니다. 더 보수적이라면 재부팅한 다음 이 단계를 수행하십시오. 다음으로 편집하여 모듈을 추가할 수 있습니다.

nano /etc/modules

해당 파일에서 다음을 추가할 수 있습니다.

vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd

다음과 같이 표시됩니다.

Proxmox VE NIC 패스스루 기타 모듈 추가

 

다음으로 재부팅할 수 있습니다.

5단계: 재부팅

이것은 다음에 재부팅하고 싶을 만큼 충분히 큰 변경입니다. PVE에서 우리가 가진 팁은 기본 시스템을 설정할 때 자주 재부팅하는 것입니다. 구성을 구축하는 데 몇 시간을 소비하고 싶지 않은 경우 구성이 부팅되지 않고 이유를 알 수 없습니다.

우리는 보다 현대적인 시스템을 위해 위의 내용을 약간 요약했음을 곧 알게 될 것입니다. 아래 확인 단계에서 문제가 발생하면 대신 모듈을 추가하기 전에 재부팅하고 재부팅하기 전에 PT 모드를 켜지 않는 것이 좋습니다.

7단계: 모든 것이 작동하는지 확인

사용할 명령은 다음과 같습니다.

dmesg | grep -e DMAR -e IOMMU

시스템, 가지고 있는 옵션 등에 따라 여기에서 많은 출력이 변경됩니다. 찾고 있는 것은 스크린샷 DMAR: IOMMU 활성화:에서 강조 표시된 줄입니다.

Proxmox VE IOMMU 활성화됨

 

당신이 그것을 가지고 있다면, 당신은 좋은 상태 일 것입니다.

7단계: NIC를 사용하도록 Proxmox VE VM 구성

이를 위해 Inexpensive 4x 2.5GbE Fanless Router Firewall Box Review 와 매우 유사한 작은 상자를 사용하고 있습니다  . 본질적으로 동일하며 해당 상자의 다른 버전입니다. 좋은 기능 중 하나는 각 NIC가 자체 i225-V이며 각 개별 NIC를 통해 VM으로 전달할 수 있다는 것입니다. 다음은 예정된 동영상의 스크린샷입니다.

Proxmox VE 웹 GUI 통과할 NIC 선택

 

이전에는 CLI 편집을 통해 통과 NIC를 VM에 추가했습니다. 이제 Proxmox는 PCIe 장치 ID와 장치 공급업체 및 이름을 가져옵니다. 이렇게 하면 시스템에서 NIC를 매우 쉽게 선택할 수 있습니다. 많은 온보드 NIC에 대한 한 가지 좋은 점은 NIC가 시스템에 레이블이 지정되어 있기 때문에 물리적 순서는 순차적인 MAC 주소와 PCIe ID가 있음을 의미해야 한다는 것입니다. 위의 0000:01:00.0에서 첫 번째 NIC(ETH0)입니다. 장치 0000:02:00.0은 두 번째 등입니다.

Hunsn 4포트 2.5GbE I225 인텔 J4125 방화벽 박스 NIC 포트

 

이 시점에서 이미 완료되었습니다. OPNsense와 pfSense 모두에서 이 작업이 수행되고 프로세스가 매우 유사하다는 것을 알 수 있습니다. 좋은 점은 이렇게 하면 pfSense/OPNsense가 가상화된 NIC 장치를 사용하는 대신 NIC에 직접 액세스할 수 있다는 것입니다.

pfSense 및 OPNsense를 사용하는 IOMMU에 대한 몇 가지 참고 사항

이러한 NIC가 할당된 후 염두에 두어야 할 몇 가지 주요 고려 사항이 있습니다.

  • 통과 NIC를 사용하면 VM이 라이브 마이그레이션되지 않습니다. VM이 PCIe 위치에서 물리적 NIC를 기대하는데 이를 얻지 못하면 문제가 됩니다.
  • 개념적으로 SR-IOV라는 고급 기능이 있어 NIC를 통해 여러 장치로 전달할 수 있습니다. pfSense 및 OPNsense 어플라이언스에서 일반적으로 볼 수 있는 저가형 i210 및 i225-V NIC의 경우 개념적으로 NIC를 VM 전용으로 지정합니다. 즉, 다른 VM은 NIC를 사용할 수 없습니다. 다음은 OPNsense NIC에도 할당된 NIC를 사용하는 pfSense VM(600)이 있는 예입니다. OPNsense를 시작하려고 하면 오류가 발생합니다. Proxmox VE GUI를 사용하면 두 VM이 꺼져 있는 경우 두 VM에서 패스스루를 구성할 수 있지만 한 번에 하나만 전용 NIC에서 켜고 활성화할 수 있습니다.

Proxmox VE 웹 GUI NIC가 이미 pfSense에 할당된 경우 OPNsense용 두 번째 VM에 할당됨

  • 이전 하드웨어에는 IOMMU 기능이 없을 수 있습니다. 최신 하드웨어에는 IOMMU와 ACS가 모두 있으므로 대부분의 최신 플랫폼에서는 PCIe 장치를 쉽게 분리하고 VM 전용으로 사용할 수 있습니다. 이전 하드웨어에서 때때로 PCIe 장치가 그룹화되는 방식은 이 예에서와 같이 NIC를 다른 VM에 개별적으로 통과시키려는 경우 문제를 일으킵니다.
  • 동일한 VM의 전용 통과 NIC와 함께 브리지에서 두 가상 NIC를 모두 활용할 수 있습니다.
  • 1GbE 속도에서 통과는 가상화된 NIC를 사용할 때와 큰 차이가 없습니다. 25GbE/100GbE 속도에서는 매우 큰 차이가 됩니다.
  • DPU에 대해 논의할 때 주요 차이점 중 하나는 DPU가 가상 네트워크 포트를 물리적 고속 포트에 브리징하는 것과 같은 기능을 처리할 수 있으며 호스트 CPU가 아닌 DPU에서 모두 발생한다는 것입니다.
  • 이것은 베어 메탈 설치보다 설정하는 데 시간이 오래 걸리고 pfSense 또는 OPNsense 설치에 복잡성을 추가하는 영역입니다. 이점은 재부팅과 같은 작업을 수행하는 것이 일반적으로 가상 머신에서 훨씬 빠르다는 것입니다. 주요 변경 사항이 있는 경우 pfSense 또는 OPNsense 이미지의 스냅샷을 찍을 수도 있습니다.
  • Proxmox VE 관리 및 기타 VM 기능을 위해 시스템에 하나 이상의 NIC를 추가하는 것이 좋습니다. 모든 NIC에 대한 패스스루를 사용하여 VM을 방화벽화하는 경우 시스템 NIC가 없습니다.

이것은 완전하지는 않지만 도움이 되기를 바랍니다.

마지막 말

이것은 pfSense, OPNsense 또는 다른 솔루션을 가상화할 때 Proxmox VE에서 PCIe 패스스루 NIC를 설정하는 빠른 가이드입니다. 2017년 또는 2020년 이후에 만들어진 최신 하드웨어에 더 적합하므로 이전 시스템을 사용하는 경우 더 많은 조정이 필요할 수 있습니다. 이것은 Intel과 같은 회사가 시장에서 자사 칩의 세분화에 사용했던 기능이었지만 요즘에는 대부분 VT-d를 지원할 것입니다.

728x90

원문출처 : https://svrforum.com/os/289851

 

서버포럼 - Proxmox local/local-lvm 디스크 통합하기

안녕하세요. 달소입니다. 요즘 계속 Proxmox에만 집중하고 있더니 이것저것 새로운게 많네요 ㅎㅎ 이번편은 Proxmox를 최초 설치했을때 파티션이 분리되어있는걸 통합하는 방식입니다. Proxmox를 최

svrforum.com

 

이번편은 Proxmox를 최초 설치했을때 파티션이 분리되어있는걸 통합하는 방식입니다.

Proxmox를 최초에 설치하고 나면 LVM의 파티션은 아래처럼 구분되어있습니다.

 

제기준으로 8TB HDD

Local - 100G (PVE/ISO/템플릿 등 용도)
Data - 나머지 7.xx TB (VM Disk/CT 볼륨 용도)

 

이렇게 나뉘어져있습니다.

제일 불편한건 로컬용량 자체가 100G로 보여서 쉘에서 작업할때 용량이 제한이 있다는거겠죠..

 

그래서 이 local-lvm을 기존 local에 통합시켜버리도록 하겠습니다.

통합을 하기위해서는 기존에 사용하던 스토리지를 아예 깔끔하게 비워주셔야 합니다.

그리고 쉘로들어가서 아래와같은 명령어를 입력해주세요.

명령어 내용은 위에 캡쳐한 data를 지우고 그용량의 전체를 /dev/pve/root로 리사이즈 시켜준다는 의미입니다.

 

lvremove /dev/pve/data
lvresize -l +100%FREE /dev/pve/root

 

 

리사이즈가 완료되면 /dev/pve/root의 파일시스템도 리사이징 해주시면됩니다.

 

resize2fs -p /dev/pve/root

 

 

완료되면 local의 토탈 사이즈가 늘어난걸 확인하실 수 있습니다.

 

마지막으로 스토리지로 가서 local의 디렉토리에 콘텐츠를 추가해주시면 됩니다.

 

728x90

원문출처 : https://blog.dalso.org/article/esxi-6-7-%EC%84%A4%EC%B9%98%EB%90%9C-%EC%83%81%ED%83%9C%EC%97%90%EC%84%9C-%EB%93%9C%EB%9D%BC%EC%9D%B4%EB%B2%84-%EC%B6%94%EA%B0%80%ED%95%98%EA%B8%B0-realtek-8125

 

ESXI 6.7 설치된 상태에서 드라이버 추가하기.(Realtek 8125) - 달소씨의 하루

안녕하세요. 달소입니다. 오랜만에 ESXI 관련글이네요 ㅎㅎ 이번편은 사용하고있는 ESXi에 드라이버를 추가하는방법입니다. 드라이버를 추가하는 이유는 다양하겠지만 새로 pci에 디바이스를 꽂

blog.dalso.org

 

오랜만에 ESXI 관련글이네요 ㅎㅎ

이번편은 사용하고있는 ESXi에 드라이버를 추가하는방법입니다.

드라이버를 추가하는 이유는 다양하겠지만 새로 pci에 디바이스를 꽂았는데 인식이 안된다거나..

뭐 여러가지 경우에 사용할 수 있을거라 생각합니다.

저같은경우 ESXi를 설치한 메인보드의 메인 LAN이 Realtek 8125B 2.5G랜인데 인식을 못해서..

인식시켜보도록하겠습니다.

1. 드라이버다운로드하기

먼저 ESXi에 설치할 드라이버를 다운로드 받아주세요.

저같은경우 Realtek 8125 드라이브를 받았습니다.

net-r8125-9.004.01-2-offline_bundle.zip
0.08MB
Realtek_r8125-NIC-offline_bundle-9.007.01-1-ESXi_6.x.zip
0.09MB

https://github.com/realganfan/r8125-esxi

net-r8125-9.004.01-2-offline_bundle.zip

다운로드 받으시고 ESXi 관리페이지 -> 데이터스토어에 업로드를 시켜주세요.

이제 직접 터미널에 연결해서 명령어를 입력해줘야하기때문에

ESXi의 SSH 터미널을 활성화시키겠습니다.

ESXi SSH 터미널 활성화하기

관리 -> 서비스 -> TSM-SSH -> 시작

계정은 사용하고계신 root 계정을 입력해주시면됩니다.

드라이버 설치하기

이제 업로드한 파일을 찾아서 드라이버를 설치해보겠습니다.

경로는 /vmfs/volumes/[데이터스토어이름]/[드라이버를 업로드한 폴더] 이렇게 되겠습니다.

이 경로의 드라이버를 설치해보겠습니다 명령어는 아래처럼입력해주세요.

esxcli software vib install -d /vmfs/volumes/datastore1/Driver/net-r8125-9.004.01-2-offline_bundle.zip

혹 위 명령어가 안되신다면 맨뒤에 -f 옵션을 붙여주시면됩니다.

위에 보다시피 Reboot Required true기 때문에 재부팅 해야 정상적으로 사용이 가능합니다.

재부팅 전 네트워크 어댑터 현황

재부팅 후 네트워크 어댑터 현황

뭐,, 애초에 이미지에 묶어서 만드는것도 하나해놔야겠네요 ㅎㅎ

728x90

원문출처 : https://www.2cpu.co.kr/vm/13805

 

ESXi 부팅용 USB 혹시 복사 되나요? :: 2cpu, 지름이 시작되는 곳!

1/115

www.2cpu.co.kr

 

질문 :
안녕하세요.

현재 ESXi 5.5u2를 SD카드에 설치해 사용 중입니다.

오랜만에 최신버전으로 업데이트 해보려니 용량이 모자란다는 메시지가 나오고, 32기가가 넘어야 된다고 하네요.

클린 설치하려니 막막해서 이곳 고수님들께 여쭤봅니다.



질문1) 혹시 ESXi 부팅용 USB도 복사해서 부팅시킬 수 있나요?

질문2) (가능하다면) 일반적인 usb 클론 툴로 가능한가요? 아니면 혹시 추천해주실만한 어플리케이션이 있는지 여쭤봅니다.


답변 :
ESXi Configuration 백업 후에 32GB 이상의 SD(다른 저장매체에 해도 됨)에 동일 버전으로 재 설치, 그리고 복원 하시면 됩니다.
주의 사항으로는 Build 버전까지 동일 한 버전으로 재 설치 하셔야 하며, 기존에 추가 등록한 VIB가 있는 경우에는 별도로 수동 설치 해야 합니다.

방법은 아래 링크를 참고 하시면 됩니다.
https://kb.vmware.com/s/article/2042141

정리하면 아래와 같습니다.

ESXi에 SSH으로 접근 후에
1. vim-cmd hostsvc/firmware/sync_config 실행
2. vim-cmd hostsvc/firmware/backup_config 실행.
3. http://Host_FQDN/downloads/xxxxxxxxxxx/configBundle-xx.xx.xx.xx.tgz 다운로드
4. 재 설치.
5.vim-cmd hostsvc/maintenance_mode_enter 으로 유지보수 모드 진입
6.다운로드한 configBundle-xx.xx.xx.xx.tgz 업로드
7.vim-cmd hostsvc/firmware/restore_config /backup_location/configBundle-xx.xx.xx.xx.tgz 실행으로 복원
그리고 재부팅.

728x90

원문출처 : https://blog.dalso.org/article/esxi-rdm-raw-device-mapping

 

ESXi RDM(Raw Device Mapping) 사용하기. - 헤놀로지 사용시 추천 - 달소씨의 하루

이번편에서는 ESXi를 좀더 효율적으로 사용하기위한 RDM(Raw Device Mapping)을 사용하는 방법에 대해 포스팅해보도록 하겠습니다. RDM이란 ESXi에서 사용이 가능한 원시 디스크를 의미합니다.원시디스

blog.dalso.org

 

ESXi RDM(Raw Device Mapping) 사용하기. – 헤놀로지 사용시 추천

 

이번편에서는 ESXi를 좀더 효율적으로 사용하기위한 RDM(Raw Device Mapping)을 사용하는 방법에 대해 포스팅해보도록 하겠습니다.

RDM이란 ESXi에서 사용이 가능한 원시 디스크를 의미합니다.
원시디스크는 디스크를 데이터스토어로 만들지않고 날것(?) 그대로 저장장치로 사용해서 가상머신에 붙이는걸 의미합니다.

이런 RDM을 사용하게되었을때 이점은 데이터스토어의 vmdk파일처럼 분리되어있지 않기때문에 헤놀 -> 시놀, 시놀 -> 헤놀의 과정을 거쳤을때 불필요한 여러번의 과정을 줄여줍니다.

HDD 장치 자체를 가상머신에 매핑해주기때문에
시놀로지에서 사용하던 HDD를 ESXi에 꽂고 RDM으로 매칭후 헤놀을 만들게 되면 시놀로지에서 사용하던 그대로 붙게되는것 입니다.

ESXi SSH 사용 설정하기

RDM을 설정하기위해서는 ESXi에 SSH로 콘솔을 붙어야하기 때문에 SSH 활성화를 먼저 해주겠습니다.

접속프로그램은 Putty를 사용해서 붙겠습니다.

계정은 ESXi 웹 콘솔 접근 계정과 동일합니다.

RDM 적용 디스크 확인

이제 RDM을 적용할 디스크를 확인할 차례입니다.

ls /dev/disks/ -l 명령어로 디스크 목록을 볼 수 있습니다.
명령어 결과에서 심볼릭링크로 되어있으며 뒤에 숫자가 없는걸 기록해주세요.
아래의 경우 vml.01000000002020202020202020202020205a44453252305837535431303030

RDM 적용하기

RDM도 원시 디스크를 -> vmdk 형식으로 링크화(?)시켜서 저장하는것이기 때문에 데이터스토어 저장되는데 저는 기본 datasotre1에 RDM이라는 폴더에 만들어보겠습니다.

vmkfstools -r /vmfs/devices/disks/[디스크이름] /vmfs/volumes/[데이터스토어이름]/[디렉토리]/[생성할RDM이름].vmdk -a lsilogic

위 명령어가 기본인데 제 기준으로 작성해보겠습니다.

디스크 이름 : vml.01000000002020202020202020202020205a44453252305837535431303030
데이터스토어 이름 : datastore1
디렉토리 : RDM
RDM이름 : Xpenology.vmdk

이걸 명령어로 나타내면 아래와 같습니다.

vmkfstools -r /vmfs/devices/disks/vml.01000000002020202020202020202020205a44453252305837535431303030 /vmfs/volumes/datastore1/RDM/Xpenology.vmdk -a lsilogic

그럼 이렇게 vmdk 파일이 생성되게 되고 VM 생성시에 기존 하드 디스크를 사용하면 자동으로 붙게됩니다.

 

————————————————–

 

728x90

출처 : https://blog.dalso.org/article/proxmox-%ec%97%90-xpenology-dsm-7-1-%ec%84%a4%ec%b9%98%ed%95%98%ea%b8%b0-feat-ds920

 

Proxmox 에 Xpenology DSM 7.1 설치하기.(Feat. DS920+) - 달소씨의 하루

안녕하세요. 달소입니다. ESXi에서 Proxmox로 넘어가기위해 필수조건이였던 헤놀로지를 Proxmox에 설치하는방법입니다. 기존에도 7.0.1버전의 가이드가있었지만 이미지로 사용하는것이였고 포럼에

blog.dalso.org

 

728x90

원본출처 : https://www.2cpu.co.kr/PDS/14535

 

Proxmox VE Admin Guide for 7.x (한글번역본) :: 2cpu, 지름이 시작되는 곳!

sfl 제목 내용 제목+내용 회원아이디 회원아이디(코) 이름 이름(코) stx sop and or 검색

www.2cpu.co.kr

pve-admin-guide-7 (KOR).rar
7.75MB

압축비번 : uname.in

728x90

"서비스형(as-a-Service)"이라는 용어는 제3사에서 클라우드 컴퓨팅 서비스를 제공한다는 의미입니다. 따라서 사용자는 코드, 고객 관계 관리와 같은 더 중요한 업무에 집중할 수 있습니다. 각 유형의 클라우드 컴퓨팅을 활용하면 관리해야 할 온프레미스 인프라가 지속적으로 감소합니다.

온프레미스 IT 인프라를 관리할 책임은 대부분 사용자와 관리자에게 있습니다. 하드웨어와 소프트웨어가 모두 온프레미스에 위치하는 경우, 필요에 따라 각 구성 요소를 관리, 업데이트 및 교체하는 업무는 사용자 및 사용자 팀이 수행해야 합니다.  클라우드 컴퓨팅을 사용하면 인프라의 단일, 여러 또는 모든 부분을 제3사가 관리하도록 할당하여 다른 중요한 사안에 집중할 수 있습니다.

클라우드 컴퓨팅 서비스는 서비스로서의 인프라(Infrastructure-as-a-Service, IaaS), 서비스로서의 플랫폼(Platforms-as-a-Service, PaaS), 서비스로서의 소프트웨어(Software-as-a-Service, SaaS)의 3가지 기본 유형에 해당하는 서비스로서의 클라우드 컴퓨팅 옵션을 제공하며, 관리 수준이 저마다 다릅니다.

이 글에서는 각 모델 유형, 장점 및 그러한 유형의 일부 또는 전체를 사용하여 요구 사항을 충족하는 클라우드 컴퓨팅 환경을 구축하는 방법에 대해 알아봅니다. 또한, 쉽게 이해할 수 있도록 각각의 몇 가지 예도 알아봅니다.


IaaS

서비스로서의 인프라 또는 IaaS는 온프레미스 인프라에서 한층 발전한 유형입니다. 이는 종량제 서비스로, 필요한 경우 제3사가 스토리지와 가상화와 같은 인프라 서비스를 인터넷을 통해 클라우드로 제공합니다. 

사용자는 운영 체제 및 데이터, 애플리케이션, 미들웨어 및 런타임을 담당하고 제공업체는 사용자가 필요로 하는 네트워크, 서버, 가상화 및 스토리지의 관리와 액세스를 담당합니다. 

제공업체가 사용자를 대신해 온사이트 데이터센터를 유지관리하거나 업데이트합니다. 대신, 사용자는 애플리케이션 프로그래밍 인터페이스(API) 또는 대시보드를 통해 인프라에 액세스하고 이를 제어합니다. 

IaaS는 필요한 구성 요소만 구매하고 필요에 따라 확장 또는 축소할 수 있는 유연성을 제공합니다. IaaS는 간접비가 낮고 유지관리 비용이 들지 않는 매우 경제적인 옵션입니다. 

IaaS는 개발 및 테스트 환경의 구축 및 제거가 빠르고 유연하다는 장점이 있습니다. 사용자는 개발 환경에서 구축해야 할 인프라만 사용하고 필요에 따라 확장 또는 축소하며, 개발이 완료되면 사용을 중단하고 사용량에 대한 비용만 지불합니다. 

IaaS의 주요 단점은 제공업체의 보안 문제 가능성, 제공업체가 여러 클라이언트와 인프라 리소스를 공유해야 하는 멀티 테넌트 시스템 및 서비스 신뢰성입니다. 탄탄한 업력과 평판을 보유한 신뢰할 수 있는 제공업체를 선택하면 이러한 단점을 방지할 수 있습니다. 

AWS, Microsoft Azure, Google Cloud와 같은 퍼블릭 클라우드 공급업체가 IaaS의 예시입니다.


PaaS

서비스로서의 플랫폼(PaaS)은 전체 온프레미스 인프라 관리가 조금 더 발전한 형태입니다. PaaS에서는 제공업체가 자체 인프라에서 하드웨어와 소프트웨어를 호스팅하고 이러한 플랫폼을 사용자에게 통합 솔루션, 솔루션 스택 또는 인터넷을 통한 서비스로 제공합니다.

주로 개발자와 프로그래머에게 유용한 PaaS는 보통 해당 프로세스와 관련된 인프라 또는 플랫폼을 구축하고 유지관리할 필요 없이 사용자가 자체 애플리케이션을 개발, 실행 및 관리할 수 있도록 해줍니다. 

사용자는 애플리케이션 코드를 작성, 빌드, 관리하지만 소프트웨어 업데이트 또는 하드웨어 유지관리와 같은 번거로움이 사라집니다. 빌드 및 배포를 위한 환경이 사용자에게 제공됩니다. 

PaaS는 개발자가 프레임워크를 개발하여 지속적으로 웹 기반 애플리케이션을 빌드 및 커스터마이징할 수 있는 방법입니다. 개발자는 기본 소프트웨어 구성 요소를 활용하여 자체 애플리케이션을 개발할 수 있으므로 자체적으로 작성해야 하는 코드의 양을 줄일 수 있습니다.

PaaS의 몇 가지 예로는 AWS Elastic Beanstalk, Heroku 및 Red Hat OpenShift가 있습니다.


SaaS

서비스로서의 소프트웨어(SaaS) 또는 클라우드 애플리케이션 서비스는 가장 포괄적인 형식의 클라우드 컴퓨팅 서비스로, 모든 애플리케이션은 제공업체가 관리하며 웹 브라우저를 통해 제공됩니다. 

제공업체가 소프트웨어 업데이트, 버그 수정 및 기타 일반 소프트웨어 유지관리 작업을 처리하며, 사용자는 대시보드 또는 API를 통해 애플리케이션에 연결합니다. 개별 시스템에 소프트웨어를 설치할 필요가 없으며 프로그램에 대한 그룹 액세스가 더욱 원활하고 안정적입니다. 

Outlook이나 Gmail과 같은 웹 기반 서비스가 지원되는 이메일 계정이 있다면 어디서든 컴퓨터에서 계정에 로그인하고 이메일을 수신할 수 있다는 점에서 SaaS라는 형태가 이미 익숙할 것입니다. 

SaaS는 소프트웨어 설치 및 업데이트를 처리할 인력이나 대역폭이 없으며 최적화가 그다지 필요하지 않거나 주기적으로 사용되는 애플리케이션이 있는 소기업에 매우 유용한 옵션입니다. 

SaaS로 시간과 유지관리를 줄일 수 있지만 제어, 보안 및 성능과 관련한 비용이 소요되므로 신뢰할 수 있는 제공업체를 선택하는 것이 중요합니다.

Dropbox, Salesforce, Google Apps 및 Red Hat Insights가 SaaS의 몇 가지 예입니다. 

728x90

https://svrforum.com/nas/35929

728x90

우분투(Ubuntu) 리눅스에 Vmware 설치하는 방법입니다.

64비트 리눅스용을 다운 받는다. (당연히 이 작업은 우분투에서 진행 한다.)

다운로드 받은 파일에 실행 권한을 준다.
$ chmod +x VMware-Workstation-Full-16.1.2-17966106.x86_64.bundle

관리자 권한으로 다운받은 파일을 실행한다.
$ sudo VMware-Workstation-Full-16.1.2-17966106.x86_64.bundle

설치시 혹은 설치 후에 커널관련 오류가 발생하면 다음과 같이 처리한다. 사실 이 글을 남기는 궁극적인 목적이다.
(커널헤더가 맞지 않는다는 오류)
$ sudo apt-get install build-essential linux-headers-$(uname -r)

VMware Tools 설치 시 커널헤더를 찾지 못하는 오류를 해결하려면 아래와 같이 심볼릭 링크를 해주면 된다.
$ sudo ln -s /usr/src/linux-headers-$(uname -r)/include/generated/uapi/linux/version.h /usr/src/linux-headers-$(uname -r)/include/linux/version.h

'IT > 가상화(Virtualization)' 카테고리의 다른 글

IaaS, PaaS 및 SaaS 비교  (0) 2021.09.17
ESXi 헤놀로지에 VM Tools 설치하기  (0) 2021.07.06
VMWare ESXi 6.7 USB NIC Driver  (0) 2021.07.06
Proxmox 설치 후 초기설정  (0) 2021.07.06
Proxmox 업데이트 설정 방법  (0) 2021.07.05
728x90

https://flings.vmware.com/usb-network-native-driver-for-esxi

https://vibsdepot.v-front.de/wiki/index.php/List_of_currently_available_ESXi_packages

 

NIC의 확장을 위해 USB NIC를 사용할 경우 필요한 드라이버 입니다.

 

파일을 다운로드 받아 ESXI에 업로드한 후

 

zip파일의 경우

# esxcli software vib install -d /절대경로/파일명.zip

 

공식파일이 아닌경우는 뒤에 -f 옵션을 넣어줍니다.

 

vib 파일의 경우는

# esxcli software vib install -v /절대경로/파일명.vib

 

공식파일이 아닌경우는 뒤에 -f 옵션을 넣어줍니다.

 

해주시면 드라이버가 설치됩니다.

 

설치완료 후 재부팅하고나면 드라이버를 인식하며

 

# esxcli software vib list

명령으로 현재 설치된 드라이버들을 확인 할 수있습니다.

 

Name                           Version                               Vendor           Acceptance Level    Install Date

 

-----------------------------  ------------------------------------  ---------------  ------------------  ------------

 

r8152                          2.11.0-1_vmw.650                      Realtek          CommunitySupported  2019-07-28

ESXi670-VMKUSB-NIC-FLING-39203948-offline_bundle-16780994.zip
0.43MB

728x90

1. 구독용 저장소 제거

# vi /etc/apt/sources.list.d/pve-enterprise.list

 

위 명령어로 엔터프라이즈용 소스를 vi를 통해 아래와 같이 주석처리해 줍니다.

#deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise 

 

2. 로그인시마다 표시되는 구독 안내 메시지 제거

# cd /usr/share/javascript/proxmox-widget-toolkit

# vi proxmoxlib.js

:set number로 vi 편집기 숫자행이 보이도록 설정 후

470번째 행쯤에 불필요한 메세지를 띄우는 녀석이 있습니다.

/data.status 등으로 검색하셔서 이동하셔도됩니다.

proxmoxlib.js 내에 data.status 비교 항목을 if (false) 로 수정하면 더이상 메세지가 나오질 않습니다.

 

3. 서비스 재시작

# systemctl restart pveproxy.service

728x90

# nano /etc/apt/sources.list

 

아래 행 추가 후 저장

 

# PVE pve-no-subscription repository provided by proxmox.com,

# NOT recommended for production use

deb http://download.proxmox.com/debian/pve buster pve-no-subscription

 

# apt-get update

# apt-get dist-upgrade

728x90

가상머신(Vmware) 네트워크 방식 3가지 Host-only(Vmnet1), Nat(Vmnet8), Bridge(Vmnet0)가 어떤 차이가 있는지 간단히 살펴본 후, ping으로 각각의 연결 상태를 실제로 확인해보겠습니다.

Host-only (Vmnet1) 연결 방식

Host-only 방식은 외부 네트워크와 연결 없이 Host-only 방식을 사용하는 Vmware끼리만 통신이 가능하다. 즉, Vmware끼리의 네트워크 대역이 따로 구축되어있다. 따라서 외부 네트워크, 호스트PC와는 통신이 안되고 서로 통신만 가능하다.

 

Vmware Host Only (VMnet1) 네트워크 연결 방식

 

 

아래와 같이 Vmware 2개를 Host-only 방식으로 변경해본다.

 

Vmware Workstation Host-Only 네트워크 연결

 

 

Host-only 방식으로 네트워크를 설정하면, Host PC와 Gateway의 192.168.0 대역과는 다르게 아래와 같이 192.168.137 대역을 따로 갖는다. IP는 각각 아래와 같다.

 

Host PC : 192.168.0.2 Gateway : 192.168.0.1 Vmware1 (Ubuntu) : 192.168.137.128 Vmware2 (Window7) : 192.168.137.129

 

Vmware1 (Ubuntu) 에서 ping을 사용해보면 같은 네트워크 대역의 Hosy-only 방식의 Vmware2 (Window7) 와만 통신이 되는 걸 볼 수 있다.

 

Vmware Host-Only 연결 확인

 

 

Nat (Vmnet8) 연결 방식

Nat 방식은 Vmware을 사용할 때, 가장 많이 사용하는 네트워크 방식이 아닐까 싶다. Nat 방식을 사용하는 Vmware은 IP를 호스트 PC에게서 할당받는다. 그리고 호스트 PC는 공유기에게서 IP를 할당받는다.

 

Vmware Net (VMnet8) 네트워크 연결 방식

 

 

아래와 같이 Vmware 2개를 Nat 방식으로 변경해본다.

 

Vmware Workstation Nat 네트워크 연결

 

 

Nat 방식으로 네트워크를 설정했을 때, IP는 아래와 같다.

 

Host PC : 192.168.0.2 Gateway : 192.168.0.1 Vmware1 (Ubuntu) : 192.168.21.130 Vmware2 (Window7) : 192.168.21.137

 

Vmware1 (Ubuntu) 에서 ping을 사용해보면 같은 Vmware (Windows7)과 외부, 호스트 PC 전부와 통신이 되는 것을 볼 수 있다.

 

Vmware Nat 연결 확인

 

Bridge (Vmnet0) 연결 방식

Nat과 Bridge는 Vmware가 IP 할당을 어디서 받느냐의 차이로 나뉜다.

 

Nat 방식을 사용하는 Vmware가 IP를 호스트 PC에게서 받았다면, Bridge 방식을 사용하는 Vmware는 IP를 공유기에게 부여받는다. 즉 공유기가 호스트 PC와 가상머신에 같은 네트워크 대역의 IP를 각각 할당하기 때문에 호스트 PC와 가상머신은 동일한 수준의 물리적 PC로 인식된다.

 

Vmware Bridge (VMnet0) 네트워크 연결 방식

 

 

아래와 같이 Vmware 2개를 Bridge 방식으로 변경해본다.

 

Vmware Workstation Bridge 네트워크 연결

 

Bridge 방식으로 네트워크 설정을 변경하면, IP가 아래와 같이 변한다. Vmware 1,2가 모두 같은 192.168.0 대역을 갖고 있다.

 

Host PC : 192.168.0.2 Gateway : 192.168.0.1 Vmware1 (Ubuntu) : 192.168.0.6 Vmware2 (Window7) : 192.168.0.5

 

Vmware1 (Ubuntu) 에서 ping을 사용해보면 같은 Vmware (Windows7)과 외부, 호스트 PC 전부와 통신이 되는 것을 볼 수 있다(Bridge 설정의 경우 방화벽을 꺼주면 호스트와 통신이 가능하다).

 

Vmware Nat 연결 확인

728x90

먼저 Arch Linux ISO를 다운로드합니다 (https://archlinux.org/download/)

 

다음으로, VMWare Workstation Pro를 실행하여 다운로드 받은 ISO 파일을 이용해서 설치합니다.

(설치 시 Guest Operating System 유형에서 Other Linux 5.x and later kernel 64-bit 을 선택하고 용량은 20G 이상 할당)

 

가상 머신이 자동으로 부팅되면 설정을 하나 더 변경해야 하므로 전원을 끕니다.

가상 머신의 Edit VirtualBox machine settings 설정화면에서 Options 탭을 클릭하고 Advanced 항목의 펌웨어 유형(Firmware type)에서 UEFI를 선택하고 저장합니다.

 

이제 가상 머신을 시작하십시오.

ISO에서 Arch Linux 설치 프로그램을 부팅해야합니다.

부팅하는 데 1 분 정도 기다리면 명령 줄 Arch Linux 설치 환경이 표시됩니다.

 

기본 네트워크 구성을 그대로 두고 아치 설치 환경이 네트워크서비스를 시작했기 때문에 인터넷 연결이 즉시 작동해야 합니다.

이를 확인하려면 다음 명령을 입력하고 패킷 손실없이 서버에 연결할 수 있는지 확인합니다.

# ping -c 4 uname.in

 

다음으로 시스템 시계를 업데이트합니다.

# timedatectl set-ntp true

 

다음으로 Arch 설치를 위해 디스크를 분할(파티션 설정)을 해야 합니다.

현재디스크 레이아웃을 보려면 다음을 입력하십시오.

# lsblk

sr0, loop0 장치 및 이전에 선택한 용량에 해당하는 sda 드라이브가 표시됩니다.

 

다음 단계에서는 이 설치에 사용할 파티션을 만들어야 하므로 다음을 입력합니다.

# cfdisk /dev/sda

gpt 레이블 유형을 선택하고 Enter를 누르십시오.

 

이제 파티션을 만드는 데 사용할 수있는 장치에 다음 3개의 파티션을 생성해야 합니다.

 

① EFI 파티션(FAT32) - New를 선택하고 파티션 사이즈는 500M로 입력하고 Type은 EFI System 으로 선택(/dev/sda1)

② swap 파티션 - New를 선택하고 파티션 사이즈는 1G로 입력하고 Type은 Linux swap 으로 선택(/dev/sda2)

③ root(/) 파티션(ext4) - New를 선택하고 파티션 사이즈는 18.5G로 입력하고 Type은 Linux filesystem 으로 선택(/dev/sda3)

 

3개의 파티션을 생성한 후 Write를 선택하고 yes를 입력합니다. 

그 후 Quit로 빠져나옵니다. lsblk로 확인하면 파티션 설정한 상태를 볼 수 있습니다.

 

이제 3개의 파티션이 있으므로 적절한 파일 시스템을 만들어야 합니다.

swap 파일 시스템은 아래명령으로 활성화합니다.

# mkswap /dev/sda2

# swapon /dev/sda2

 

다음으로 root 파일 시스템을 만듭니다

# mkfs.ext4 /dev/sda3

 

이제 다음 명령을 사용하여 EFI 파일 시스템을 만들 수 있습니다

# mkfs.fat -F32 /dev/sda1

 

이제 파일 시스템을 만들었으므로 설치를 계속하려면 마운트 해야 합니다.

먼저 root 파티션을 마운트하십시오

# mount /dev/sda3 /mnt

 

다음으로 boot 파티션을 마운트 할 디렉토리를 만듭니다.

# mkdir /mnt/boot

 

마지막으로 EFI 파티션을 해당 디렉토리에 마운트하십시오.

# mount /dev/sda1 /mnt/boot

 

이제 기본 Arch Linux 시스템을 구성하는 필수 패키지를 설치할 때입니다.

다음 명령을 입력하십시오.

# pacstrap /mnt base linux linux-firmware

이 명령은 몇 분 후에 완료됩니다.

 

이제 fstab 시스템이 부팅 될 때 파티션을 마운트 할 위치를 알 수 있도록 파일을 생성할 수 있습니다.

# genfstab -U /mnt >> /mnt/etc/fstab

 

이제 시스템 기반이 설치되었으므로 chroot해야합니다.

이를 수행하려면 다음 명령을 입력하십시오.

# arch-chroot /mnt

 

이제 시스템의 시간대, 현지화 및 호스트 이름을 사용자 정의해야 합니다.

# ln -sf /usr/share/zoneinfo/Asia/Seoul /etc/localtime

(zoneinfo 시간대를 찾으려면 디렉토리 및 하위 디렉토리를 탐색해야 할 수도 있습니다.)

 

다음 단계로 필수 편집 패키지를 설치해 봅니다.

# pacman -S vim vi htop nano noto-fonts-cjk terminus-font ttf-dejavu net-tools

 

이제 /etc/locale.gen 파일을 편집 해야 합니다.

# vi /etc/locale.gen

en_US.UTF-8 UTF-8 과 ko_KR.UTF-8 UTF-8 을 찾아 앞에 주석(#)을 제거하고 저장합니다.

 

다음으로 locale.conf 파일을 만들고 선호하는 텍스트 편집기를 사용하여 언어를 설정합니다.

다음과 같이 입력하고 저장합니다.

# vi /etc/locale.conf

LANG=en_US.UTF-8

LC_COLLATE=C

 

위 단계를 수행 한 후 다음 명령을 입력하여 로케일을 생성하십시오.

# locale-gen

 

다음으로 /etc/hostname 파일을 편집하여 호스트 이름 지정해 줍니다.

# vi /etc/hostname

ArchLinux

 

다음으로 /etc/hosts 파일을 편집합니다.

# vi /etc/hosts

우리가 ArchLinux hostname을 사용하기 때문에 입력항목은 다음과 같습니다.

 

127.0.0.1 localhost

::1 localhost

127.0.1.1 ArchLinux.localdomain ArchLinux

 

다음으로 Arch 가상 머신에 대한 네트워킹을 구성해야합니다.

지금은 Arch 설치 환경이 사전 구성된 systemd 네트워킹서비스를 자동으로 시작했기 때문에 네트워킹이 정상적으로 작동하고 있습니다.

새로 설치 한 후 다시 부팅 한 후에도 네트워킹이 계속 작동하려면 이제 해당 서비스를 활성화하고 구성해야 합니다.

다음 명령을 입력하십시오.

# systemctl enable systemd-networkd

# systemctl enable systemd-resolved

 

다음으로 다음을 입력하여 네트워크 인터페이스 이름을 확인하고 아래 사항을 입력합니다.

# ip addr

(lo 인터페이스를 제외하고 저의 경우에는 네트워크 이름이 ens33으로 되어 있습니다.)

 

# vi /etc/systemd/network/20-wired.network

 

[Match]

Name=ens33

 

[Network]

DHCP=yes

 

다음으로 루트 사용자의 비밀번호를 설정하십시오.

# passwd

 

Intel 프로세서를 사용하는 경우 Intel 마이크로 코드를 설치해야 합니다.

# pacman -S intel-ucode

(AMD의 경우는 amd-ucode)

 

VMware Workstation에서 전체 기본 Arch Linux 설치를 완료하는 마지막 단계는 부트 로더를 설치하는 것입니다.

먼저 부트 로더로 사용할 수 있도록 grub 및 efibootmgr 패키지를 설치합니다.

# pacman -S grub efibootmgr

 

다음으로 다음 명령을 사용하여 grub bootloader에 EFI partition을 설치합니다.

# grub-install --target=x86_64-efi --efi-directory=/boot --bootloader-id=GRUB

 

이제 grub bootloader에 기본 grub 구성 파일을 생성하기 만하면 됩니다.

다음 명령을 입력하십시오.

# grub-mkconfig -o /boot/grub/grub.cfg

 

기본 Arch Linux 가상 머신 설치가 완료되었습니다.

이제 파티션을 마운트 해제하고 시스템을 재부팅 할 수 있습니다.

# exit

# umount -R /mnt

# reboot

 

시스템이 재부팅되면 이전에 설정한 비밀번호를 사용하여 root 계정으로 ArchLinux VM에 로그인 할 수 있습니다.

 

일반적인 권장 패키지 사항 - https://wiki.archlinux.org/title/General_recommendations

응용 프로그램 목록 - https://wiki.archlinux.org/title/List_of_applications

 

SSH 설치

# pacman -S openssh

 

재부팅 시 sshd 서비스 자동 활성화

# sudo systemctl enable sshd

 

sshd 서비스 시작

# sudo systemctl start sshd

 

sshd 서비스 상태보기

# systemctl status sshd

 

<참고>

위에서 설치한 terminus-font를 콘솔 기본 글꼴로 영구적으로 만들려면 다음을 편집하세요.

# vi /etc/vconsole.conf

FONT=ter-g32n

다음에 가상 머신을 재부팅 할 때 시스템은 선택한 콘솔 글꼴을 사용합니다.

728x90

① VirtualBOX 설치

https://www.virtualbox.org/ 사이트 접속하여 다운로드

이때 VirtualBox <버전> Oracle VM VirtualBox Extension Pack 확장팩도 다운로드

 

② 확장팩 설치

파일 - 환경 설정 - 확장 에서 다운로드한 확장팩 파일 설치

 

③ 키보드 잡기 설정

파일 - 환경 설정 - 입력 - 가상 머신 으로 이동

호스트 키 조합 항목의 설정 칸에 커서를 놓고 원하는 키를 입력(예. Alt + Ctrl)

원하는 키 입력한 뒤 반드시 엔터키 치기. 엔터키를 누르지 않으면, 변경된 값이 저장되지 않음

확인 버튼 누르면 끝

 

④ 장치 - 드래그 앤 드롭 양방향 설정

 

⑤ 장치 - 클립보드 공유 양방향 설정

 

⑥ 게스트 확장 설치

장치 - 게스트 확장 CD 이미지 삽입 설치

CentOS 7 의 경우 - 게스트 확장 CD 설치 전 터미널을 열고 다음 명령어로 라이브러리를 설치 및 재부팅 후 게스트 확장 설치

#yum groupinstall "Development Tools"

#yum install kernel sources

#yum install kernel-devel

#yum install make

#yum install gcc

+ Recent posts