본문 바로가기

운영체제(OS)

[운영체제(OS)] 9. 가상 메모리(Virtual Memory)

반응형

 

[목차]

 

1. Motivation

 

2. Demand Paging

 

3. Page Replacement Algorithm

 

4. Allocation of Frames

 

5. Thrashing

 

6. Thrashing Prevention

 

참고)

- KOCW 공개강의 (2014-1. 이화여자대학교 - 반효경)

- Sogang Univ. Operating System Lecture Note (2018-2. Prof. Youngjae Kim)

 

  1. Motivation

 

기존에는 프로세스가 실행되는 코드의 전체를 메모리에 로드해야 했고, 메모리 용량보다 더 큰 프로그램은 실행시킬 수 없었다. 하지만 실제로는 코드의 일부에서만 대부분의 시간을 사용하고, 프로세스는 특정 순간에는 항상 작은 양의 주소 공간을 사용했기 때문에 이러한 방식은 매우 비효율적이었다.

 

가상 메모리(Virtual Memory)는 이러한 물리적 메모리 크기의 한계를 극복하기 위해 나온 기술이다. 프로세스를 실행할 때 실행에 필요한 일부만 메모리에 로드하고 나머지는 디스크에 두는 것이다.

이를 통해 프로세스 전체가 물리적 메모리에 있는 것 '처럼' 수행되는, 즉 물리적 메모리가 훨씬 많이 있는 것처럼 보이게 된다.

결과적으로 메모리에 작은 양의 주소 공간만 있으면 충분히 프로세스를 수행할 수 있고, 그에 따라 더 많은 프로그램을 동시에 실행할 수 있게 된다. 

 

이처럼 현재 필요한 page만 메모리에 올리는 것Demand Paging이라고 한다. 

 

 

  2. Demand Paging

 

Demand paging은 실제로 필요할 때 page를 메모리에 올리는 것이다. 

이를 통해 CPU 이용률과 처리율이 높아지고, 더 많은 사용자를 수용할 수 있다.  

 

Demand paging은 page table에서 해당 page가 메모리에 있는지를 나타내는 valid-invalid bit를 사용한다. bit가 invalid인 경우 페이지가 물리적 메모리에 없다는 것이다.

따라서 처음에는 모든 page entry가 invalid로 초기화되어있고, 주소 변환 시 bit가 invalid로 되어있다면 page fault라는 오류가 발생한다. 

 

주소 변환하는 구체적인 과정은 다음과 같다. 

 

1. 하드웨어가 TLB를 확인한다.

 

2. TLB hit인 경우 곧바로 주소를 변환하고, TLB miss인 경우 page table을 확인한다(→3). 

 

3. page table의 valid-invalid bit가 valid로 되어 있다면 주소를 변환하고 TLB에 page를 올린다. invalid라면 page fault가 발생한다(→4).

 

4. page fault가 발생하면 MMU가 운영체제에 Trap을 걸고 커널 모드로 들어가서 page fault handler가 invoke된다.

 

5. 유효하지 않은 참조인 경우 프로세스를 종료시키고, 그렇지 않다면 빈 page frame을 얻는다. 빈 frame이 없다면 메모리에서 victim page를 선택하여 대체한다.  

 

6. 운영체제는 참조된 page를 디스크에서 메모리로 로드(I/O)하고, disk I/O가 끝날 때까지 이 프로세스는 CPU를 빼앗긴다.

 

7. disk I/O가 끝나면 page table이 업데이트되고 valid-invalid bit가 valid로 바뀐다. 그리고 ready queue에 프로세스를 넣어준다.  

 

8. 프로세스가 CPU를 잡게 되면 다시 이어서 수행한다. 

 

Demand paging의 성능은 다음과 같이 계산할 수 있다.

 

Page fault Rate = 0 ≤ p ≤ 1.0 이라고 가정.

(p = 0이면 no page fault / p = 1이면 매 참조마다 page fault. 보통은 p가 매우 작은 편이다) 

 

Effective Access Time =

(1-p) × memory access +

p × (OS&HW page fault overhead + [swap page out if needed] + swap page in + OS&HW restart overhead)

 

 

만약 page frame이 존재하지 않는 경우에는 어떤 frame에 있는 page를 대체할지 결정해야 한다.

기본적으로 page fault rate를 최소화하는 것이 목표이고, 이에 대한 여러 알고리즘이 존재한다. 

알고리즘의 성능 평가는 주어진 page reference string에 대해 page fault를 얼마나 내는지를 조사하는 방식으로 이루어진다. page reference string은 참조되는 일련의 page 번호다. 

 

 

  3. Page Replacement Algorithm

 

page reference string = "1 2 3 4 1 2 5 1 2 3 4 5" 라고 가정하자.  

 

1. OPT(Optimal Algorithm)

 

Optimal Algorithm은 가장 먼 미래에 참조되는 page를 대체하는 방법이다. 이 방법은 항상 최적의 결과를 갖는다.

다만, 미래의 참조를 모두 알고 있어야 하므로 실제로 사용하기는 어렵고, 다른 알고리즘의 성능에 대한 upper bound를 제공하는 역할을 한다.

Belady's optimal algorithm, OPT, MIN 등으로 불린다. 

 

ex) 4 frames 

빨간색은 page fault가 발생한 경우이고, 분홍색은 frame에 이미 존재해서 page fault가 발생하지 않은 경우이다. 

OPT는 항상 최적이므로 위와 같은 reference string이 주어진 경우 6번 미만의 page fault가 발생하는 방법은 존재하지 않는다. 

 

 

2. FIFO(First In First Out) Algorithm

 

FIFO 알고리즘은 제일 먼저 들어온 것을 먼저 내쫓는 방법이다. 미래를 모르는 경우에도 사용할 수 있다. 

모든 page가 평등하게 frame에 거주하며, 구현하기 쉽다는 장점이 있다. 다만, 어떤 page는 항상 필요할 수 있는데, 그런 경우에도 replace를 시킨다는 단점이 있다. 

 

그리고 FIFO는 frame이 늘어나도 page fault가 감소하지 않고 오히려 늘어나는 경우가 존재하는 Belady's anomaly 현상이 발생할 수 있다.

 

이처럼 일반적으로는 frame이 증가할수록 page fault가 감소하지만 특정 구간에서 오히려 증가하는 경우가 발생한다. 아래의 예시를 통해 이해해보자. 

 

3. LRU (Least Recently Used) Algorithm

 

LRU 알고리즘은 가장 오래전에 참조된 것을 지우는 방법이다.

Optimal에 근접한 방법이며, Belady's anomaly가 발생하지 않는다. 다만, 구현하기가 어렵고 접근되는 빈도를 고려하지 않는다는 단점이 있다. 

연결 리스트로 LRU를 구현하면 O(1)만에 page를 찾고 삽입할 수 있다. 제일 최근에 참조된 page를 가장 앞으로 옮기는 방식으로 연결 리스트를 구현하면 replace가 일어날 때 가장 뒤에 있는 page를 바꿔주면 된다. 

 

 

4. LFU(Least Frequently Used) Algorithm

 

LFU 알고리즘은 참조 횟수가 가장 적은 page를 지우는 방법이다.

LRU에 비해 장기적인 시간 규모를 보기 때문에 page의 인기도를 조금 더 정확히 반영할 수 있다. 하지만 최근성은 반영하지 못한다. 

최저 참조 횟수인 page가 2개 이상인 경우에는 LFU 알고리즘 자체에서는 임의로 page를 선정하는데, 성능 향상을 위해 가장 오래전에 참조된 page를 지우는 식으로 구현할 수도 있다. 

 

LFU를 LRU처럼 연결 리스트를 이용해서 구현하면 replace 될 page를 찾는데 O(n)의 시간이 걸리게 되어 느리다. 따라서 힙(heap)을 사용하면 최소 빈도를 갖는 page를 찾거나 삽입, 삭제하는데 O(logn)의 시간이 걸리게 되므로 훨씬 효율적이다. 

 

 

5. Second Chance Algorithm (Clock Algorithm)

 

LRU와 LFU 알고리즘이 실제로 paging system에서 사용 가능할까? 그렇지 않다.

LRU와 LFU의 알고리즘 구현에서 운영체제가 자료구조를 변경하고 유지하는 작업을 수행해야 하는데, 이미 메모리에 page가 올라가 있는 경우에는 CPU가 운영체제에 넘어가지 않는다. page fault가 발생해야 CPU가 운영체제에 넘어가고, 디스크에서 메모리로 page를 로드할 때 해당 page에 대한 정보를 얻고 갱신할 수 있다. 

따라서 운영체제가 참조한 지 오래되거나 참조 횟수가 적은 페이지를 정확하게 알 수 없다. 

 

이에 대한 해결법으로 Second Chance Algorithm을 사용한다. Clock Algorithm이라고도 불린다. 

 

Second Chance Algorithm은 LRU의 근사(approximation) 알고리즘으로, 최근에 참조되었는지 여부를 나타내는 Reference bit이라는 정보를 사용한다

 

Reference bit가 0인 것을 찾을 때까지 시계처럼 한 바퀴씩 포인터를 이동하다가 0인 것을 찾으면 해당 page를 교체하는 방식이다. 

만약 Reference bit가 1인 page를 만나면 0으로 바꿔주고, 한 바퀴 되돌아와서도(Second Chance) 여전히 0이면 해당 page를 교체한다. 다시 bit가 1로 바뀌어있다면 그만큼 자주 사용되는 page라는 의미인 것이다. 

 

 

이를 조금 더 개선한 방식으로 Enhanced Second Chance Algorithm이 있는데, 최근에 해당 page가 변경이 되었는지를 나타내는 Modified bit(dirty bit)가 추가된 것이다.

 

Modified bit가 1이라면 page가 변경되었기 때문에 교체를 하면 디스크에 해당 내용을 반영해야 한다. 즉, I/O 작업이 동반되므로 시간이 오래 걸린다.

따라서 "Reference bit == 0? → Modified bit == 0?" 순서로 우선순위를 가진다. 

 

 

  4. Allocation of Frames

 

프로세스마다 얼마만큼의 page frame을 할당해야 할까?

기본적으로, 사용할 수 있는 frame의 총 양보다 많게, 또는 최소한의 필요한 frame보다는 적게 할당하면 안 된다. 

또 loop를 구성하는 page들은 한 번에 할당되는 것이 유리하다. 그렇지 않다면 매 loop마다 page fault가 발생할 수도 있다.

 

page frame을 할당하는 방식으로는 프로세스마다 균일하게 할당하거나 특정 기준에 따라 할당하는 방법으로 나뉜다. 

균일하게 할당하는 방법은 말 그대로 frame 수 / 프로세스 수만큼 각 프로세스마다 frame을 할당한다. 

특정 기준은 프로세스의 크기나 우선순위가 될 수 있다. 크기가 크거나 우선순위가 높을수록 더 많은 frame을 할당한다. 

 

프로세스가 page fault를 발생시켰을 때 대체될 frame의 그룹에 따라 Global ReplacementLocal Replacement로 나뉜다. 

 

Global Replacement는 Replace 할 때 다른 프로세스에 할당된 frame을 빼앗아올 수 있다. 프로세스별로 frame 할당량을 조절하는 또 다른 방법이 될 수 있지만, 자신의 page fault rate를 조절할 수 없다. 

일반적으로 더 좋은 처리량을 가지므로 가장 흔하게 사용되는 방법이다. 

 

Local Replacement는 자신에게 할당된 frame 내에서만 교체하는 방법이다. 알고리즘을 프로세스마다 독자적으로 운영하는 경우 가능하다. 쉬고 있는 메모리를 사용할 수 없기 때문에 비교적 비효율적이다. 

 

 

  5. Thrashing

 

Thrashing은 프로세스가 원활한 수행에 필요한 최소한의 page frame을 할당받지 못해서, 실행보다 Swapping 하는데 더 많은 시간을 소모하는 현상이다. 

 

page fault rate가 매우 높아지고 CPU 효율성이 낮아진다.

Thrashing이 발생하는 과정은 다음과 같다.

 

1. page가 부족하여 page fault가 증가한다.

 

2. Swapping(I/O) 작업이 증가하여 CPU 효율성(Utilization)이 감소한다. 

 

3. OS는 Multiprogramming Degree를 높여야 한다고 판단하여 또 다른 프로세스를 시스템에 추가한다. 

 

4. 프로세스당 할당된 page frame이 더욱 감소하여 page fault가 더 증가한다.

 

5. 프로세스는 Swapping으로 인해 매우 바빠져서 대부분의 시간에 CPU는 한가해진다. 

 

 

 

  6. Thrashing Prevention

 

Thrashing을 예방하기 위해서는 프로세스에게 frame을 필요한 만큼 많이 제공해야 한다.

그렇다면 어떻게 프로세스가 필요한 frame의 양을 알 수 있을까?

 

1. Working-Set Model

 

Working Set Model은 가능한 최대 Multiprogramming Degree를 유지하면서 Thrashing을 막는 방법이다. 

 

Locality of reference(참조 지역성의 원리)프로세스가 특정 시간 동안 일정 장소를 집중적으로 참조하는 성질을 말한다.

이 Locality에 기반하여 프로세스가 일정 시간 동안 원활히 수행되기 위해 한꺼번에 메모리에 올라와있어야 하는 page들의 집합Working set이라고 한다. 

 

Working set은 Working set window라는 고정된 page 참조 횟수(시간)로 구한다. 

 

$WSS_i$ = working set size of process $P_i$

즉, 가장 최근 window에서 프로세스 $P_i$가 참조한 page의 총 개수라고 정의하자. 

(만약 window의 크기가 너무 작다면 전체적인 locality를 다룰 수 없고, 너무 크다면 여러 locality를 포함하게 된다. 크기가 무한이라면 프로그램 전체를 포함할 것이다)

 

이때, $\sum WSS_i$가 필요한 frame의 총 수가 되고, 이 값이 총 사용 가능한 frame의 수보다 더 크다면 Thrashing이 발생하게 된다.

따라서 운영체제가 지속적으로 각 프로세스의 Working set을 지켜보면서 충분한 frame을 할당해주고, $\sum WSS_i$가 총 사용 가능한 frame 수보다 크다면 프로세스 중에서 하나를 종료시키고 해당 프로세스의 frame을 다른 프로세스들에게 할당해준다. 이를 통해 Multiprogramming Degree를 줄여준다. 

 

 

2. PFF(Page-Fault Frequency) Scheme

 

PFF는 page fault의 상한 값과 하한 값을 두고, page fault rate가 상한 값을 넘으면 frame을 더 할당하고, 하한 값보다 낮아지면 할당된 frame 수를 줄이는 방법이다. 

 

 

PC로 보시는 것을 권장합니다. 

피드백은 언제나 환영입니다. 댓글로 달아주세요 ^-^

 

 

 

 

 

 

 

반응형