View : 200 Download: 0

고속의 저장매체 환경을 위한 버퍼 캐싱 및 미리 읽기 기법

고속의 저장매체 환경을 위한 버퍼 캐싱 및 미리 읽기 기법
Other Titles
New Buffer Caching and Read-Ahead Mechanism For High-speed Storage Media
Issue Date
대학원 컴퓨터공학과
이화여자대학교 대학원
As hard disks are six orders of magnitude slower than DRAM memory, there have been a lot of studies to relieve the speed gap problem of these two layers. For example, file systems, database, and virtual memory all use some kind of caching techniques to hide the large miss penalty of disks. Recently, new storage media such as flash memory, phase change memory (PRAM), and MEMS-based storage emerge and the access time of these media is significantly faster than that of traditional hard disks. Thus, the cache miss penalty becomes smaller when these new storage media are used as secondary storage. In this paper, we show how the efficiency of caching and read-ahead mechanism appears as the speed gap of memory and secondary storage becomes narrow. We perform experiments with a variety of workloads and show the effectiveness of caching and read-ahead mechanism according to the change of secondary storage media. Our results indicate that the benefit of a cached data will be very different according to the secondary storage media, and a certain number of cache hits are needed for caching of a block to be beneficial. We show the condition when the caching of a block will be effective according to different access time of secondary storage. Since the optimistic access time of PRAM is expected to be almost identical to that of DRAM, we can make a question that the traditional buffer cache will be still effective for high speed secondary storage such as PRAM. This paper answers it by showing that the buffer cache is still effective in such environments due to the software overhead and the bimodal block reference characteristics. Based on this observation, we present a new buffer cache management and read-ahead scheme appropriately for the system where the speed gap between the cache and storage is small. To this end, we analyze the condition that caching gains and find the characteristics of I/O traces that can be exploited in managing buffer cache and read-ahead for high-speed storage.;기존 컴퓨터 시스템에서는 메인 메모리와 스토리지 사이의 속도 차이가 매우 크기 때문에 이 두 층의 속도 격차 문제를 줄이기 위해 캐싱 기법을 사용한다. 캐싱은 속도가 느린 저장 장치에서 블록을 탐색하고 현재 요청을 서비스 한 후 캐시에 유지시켜 가까운 미래에 그 블록에 대한 요청이 다시 일어났을 경우 접근 속도가 느린 디스크로부터가 아닌 캐시로부터 바로 처리할 수 있도록 한다. 또한 기존 파일시스템은 하드디스크의 느린 헤드 이동시간을 고려하여 탐색 지연 시간을 최소화하기 위해 미리 읽기를 수행한다. 미리 읽기란 최소한의 헤드 이동 횟수와 캐시 적중률 향상을 고려하여 앞으로의 읽기 연산이 순차적으로 발생할 것이라는 예측 하에 한 번의 읽기 동작으로 더 많은 양의 데이터를 읽어오는 것이다. 하지만 최근 플래시 메모리, phase change memory(PRAM) 및 MEMS 기반 스토리지와 같은 고속의 저장매체가 등장하면서 하드디스크와 메모리 사이의 속도 차이가 매우 근소해졌다. 이는 캐시미스 패널티가 매우 작아지고 캐시히트가 발생할 때 생기는 캐시의 이점이 감소한다는 것을 의미한다. 또한 미리 읽기 기법은 헤드 이동과 같은 물리적인 제약사항이 없는 차세대 스토리지 메모리 환경에서는 적합하지 않다. 특히, 새로운 저장매체 중 PRAM의 경우 DRAM과 접근 시간이 거의 동일하기 때문에 캐싱으로 얻을 수 있는 이익이 거의 없다고 예상할 수 있는데, 실험 결과 PRAM 저장매체의 블록을 접근할 때 커널의 I/O 처리의 소프트웨어 오버 헤드로 DRAM 캐시의 블록에 접근하는 것보다 약간 느린 것을 확인하였다. 이에 대해 본 논문에서는 고속의 저장매체 환경에 적합한 버퍼 캐싱 기법과 미리 읽기 기법을 제안한다.
Show the fulltext
Appears in Collections:
일반대학원 > 컴퓨터공학과 > Theses_Master
Files in This Item:
There are no files associated with this item.
RIS (EndNote)
XLS (Excel)


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.