기본 콘텐츠로 건너뛰기

Dart에서 Future, await, async 이해

Dart에서 Future, await, async 이해

1. 들어가는 말

Dart에서 제공하는 Future, await, async를 이해하는 방법 중의 하나는 해당 단어들에 대한 설명과 예제를 찾아서 살펴보는 것입니다. 저도 처음에는 그렇게 접근했는데 여러 글들을 읽고 나서도 왠지 선명하게 이해되지는 않았습니다. 그래서 다른 접근 방법을 통해서 이해해 보고자 합니다.

2. 함수의 호출과 결과 반환

A가 함수 B를 호출(call)하는 이유는 함수가 제공하는 작업(task) C를 수행하기 위함입니다. 함수의 호출 종료 시점은 작업 완료 시점일 수도 있고 그 전일 수도 있습니다.

  1. B 함수 호출 종료 시점 (T1)
  2. B 함수 호출 종료 시점에 반환하는 데이터 (R1)
  3. B 함수 작업 완료 시점 (T2)
  4. B 함수 작업 완료 시점에 반환하는 데이터 (R2)

2.1. 동기 함수

동기 함수의 경우 위의 T1과 T2가 같고 그 결과로 R1과 R2도 같습니다.

예제-1. 동기 함수

String B() {
    return 'Hello, World!';
}

void main() {
    String r = B();
    print(r);
}

2.2. 비동기 함수

비동기 함수의 경우 T1이 T2에 앞서 이루어지며 이로 인해 R1과 R2는 서로 다를 수밖에 없습니다.

2.2.1. 호출의 결과와 작업의 결과

함수를 호출하는 목적이 작업을 수행하기 위함이라는 것을 생각한다면 호출하는 쪽에서 정말로 필요로 하는 것은 R2입니다. 그렇다면 R1은 무엇이 되는 것이 좋을까요?

  • Future - 미래에 A가 B로부터 작업의 결과를 넘겨 받는 그릇
    • A 입장에서는 나중에 R2를 받을 수 있는 그릇
    • B 입장에서는 나중에 R2를 넣을 수 있는 그릇

2.2.2. 호출 종료 시점과 반환 데이터

또 필요한 것은 함수 B 내의 특정 지점에서 호출을 종료한다는 표시를 다는 방법입니다. 물론 호출 종료와 함께 결과 R1을 반환하더라도 함수 B의 작업은 계속 진행됩니다.

  • await
    • B는 Future를 돌려 주고 A의 B에 대한 호출은 종료된다.
      • A는 B에 대한 호출이 끝났고 Future를 받았으므로 자신의 작업을 계속하다가 B의 작업 결과가 필요한 시점에 앞에서 넘겨받은 Future를 통해 확인하고 결과를 꺼내서 사용한다.
    • B는 비동기 함수, 예를 들어 D를 호출하고 그것의 작업이 완료될 때까지 기다렸다가 작업의 결과를 받는다.
      1. D 함수 호출 종료 시점 (T1)
      2. D 함수 호출 종료 시점에 반환하는 데이터 (R1)
      3. D 함수 작업 완료 시점 (T2)
      4. D 함수 작업 완료 시점에 반환하는 데이터 (R2)

2.2.3. 작업 종료 시점과 반환 데이터

그리고 마지막으로 필요한 것은 이 함수는 함수의 작업이 완료되기 전에 함수의 호출이 종료되는 함수라는 것을 함수 선언 부분에 표시하는 방법입니다. 이 선언이 있기 때문에 함수 B가 작업을 완료하고 돌려주는 결과 값을 앞서 반환했던 Future에 담게 됩니다. 함수 호출에 대한 결과 반환은 await를 처음 만나는 시점에 이미 이루어졌고 그것은 Future였음을 기억하시기 바랍니다.

  • async
    • 함수의 작업이 완료되기 전에 호출이 종료되고 이 때 돌려주는 것은 Future이다.
    • 함수의 작업을 완료하고 결과 데이터를 반환하면 내부적으로 Future에 담아 준다.
    • 함수의 작업 결과 데이터 형식이 String이면 함수 선언 부분의 결과 데이터 형식은 Future<String>이 되어야 한다.

예제-2. 비동기 함수

String currentTime() {
    var  now = DateTime.now();

    String minute = now.minute.toString().padLeft(2, '0');
    String second = now.second.toString().padLeft(2, '0');

    return '$minute:$second';
}

Future<String> B() async {
    print('[${currentTime()}] TASK begin');

    String a = await Future<String>.delayed(Duration(seconds: 3), () => 'Hello');

    print('[${currentTime()}] TASK end');

    return a;
}

void main() {
    print('[${currentTime()}] BEFORE call');

    Future<String> r = B();

    print('[${currentTime()}] AFTER call');

    print('[${currentTime()}] r: ${r}');

    r.then((value) => print('[${currentTime()}] value: ${value}'));
}

예제-2의 실행 결과는 아래와 같습니다.

[37:39] BEFORE call
[37:39]         TASK begin
[37:39] AFTER call
[37:39] r: Instance of 'Future<String>'
[37:42]         TASK end
[37:42] value: Hello

함수 B가 비동기 함수인 이유는 작업 종료(TASK end) 전에 함수 호출 종료( AFTER call)가 이루어지기 때문입니다.

3. 정리

사례 비교

  1. 동일한 개념을 멀티쓰레드로 구현하는 경우와 세 개의 예약어(Future, await, async)로 대체하는 경우를 비교해 보면 후자의 장점이 명확해집니다.
  2. 특히 여러 개의 비동기 작업들을 순차적으로 수행해야 할 때 유용합니다.
  3. 비동기 작업이 필요한 경우 주(main) 프로그램 작성 관점에서는 사례-2가 적합한 경우가 많을 것으로 예상합니다.

Written with StackEdit.

댓글

이 블로그의 인기 게시물

Intel MKL 예제를 Microsoft Visual C++로 빌드하기

Intel MKL 예제를 Microsoft Visual C++로 빌드하기 인텔 프로세서 시스템에서 아래의 영역에 해당하는 수학 계산을 빠르게 수행하고자 한다면 Intel MKL 라이브러리를 사용할 수 있습니다. Linear Algebra Fast Fourier Transforms (FFT) Vector Statistics & Data Fitting Vector Math & Miscellaneous Solvers 이 문서는 Intel MKL 이 제공하는 예제 파일을 Microsoft Visual C++ 로 컴파일하고 링크하여 실행 파일을 만드는 과정을 소개합니다. 빌드 환경 다음은 이 문서를 작성하는 과정에서 Intel MKL 예제를 빌드하기 위하여 사용한 환경입니다. 시스템 운영체제: Windows 10 (64비트) 프로세서: Intel Core i7 설치 제품 IDE: Microsoft Visual Studio Community 2019 (version 16) 라이브러리: Intel Math Kernel Library 2019 Update 5 환경 변수 명령 프롬프트 창을 엽니다. 아래 스크립트를 실행하여 환경 변수 INCLUDE , LIB , 그리고 PATH 를 설정합니다. @echo off set CPRO_PATH=C:\Program Files (x86)\IntelSWTools\compilers_and_libraries\windows set MKLROOT=%CPRO_PATH%\mkl set REDIST=%CPRO_PATH%\redist set INCLUDE=%MKLROOT%\include;%INCLUDE% set LIB=%MKLROOT%\lib\intel64;%LIB% set PATH=%REDIST%\intel64\mkl;%PATH% REM for OpenMP intel thread set LIB=%CPRO_PATH%\compiler\lib...

Llama 3.2로 문장 생성 및 챗팅 완성 실습

Llama 3.2로 문장 생성 및 챗팅 완성 실습 Running Meta Llama on Linux 문서의 내용을 참고하여 Llama 3.2 1B 모델로 다음 두 가지 기능을 실습합니다. 문장 완성 챗팅 완성 실습 환경 Ubuntu 20.04.6 LTS Python 3.12.7 Llama3.2-1B, Llama3.2-1B-Instruct rustc 1.83.0 NVIDIA RTX 4090 24GB 프로그램 준비 실습에서 사용할 wget , md5sum 설치 sudo apt-get install wget sudo apt-get install md5sum NVIDIA GPU 설치 여부 확인 nvidia-smi 실습 디렉토리 만들기 mkdir llama3-demo cd llama3-demo git clone https://github.com/meta-llama/llama3.git Python 3.10 이상의 버전으로 가상환경 만들고 활성화 python -m venv llama-venv . llama-venv/bin/activate Rust 컴파일러 설치 How To Install Rust on Ubuntu 20.04 문서를 참고하여 Rust 컴파일러를 설치합니다. curl --proto '=https' --tlsv1.3 https://sh.rustup.rs -sSf | sh 위 명령을 실행하면 아래와 같이 세 가지 선택 옵션이 나타나는데 그냥 엔터를 쳐서 1번 옵션으로 진행합니다. ... 1) Proceed with installation (default) 2) Customize installation 3) Cancel installation 아래 명령을 실행하여 현재 쉘에 반영하고 설치된 컴파일러 버전을 확인합니다. source $HOME/.cargo/env rustc --version 의존 라이브러리 설치 pip install ...