기본 콘텐츠로 건너뛰기

정보이론에서의 엔트로피 이해

정보이론에서의 엔트로피 이해

차례

  1. 정보 교환(Communication)
  2. 특정 사건의 정보량(Information Content)
  3. 정보원으로부터 얻을 수 있는 정보량에 대한 기댓값
  4. 정보원의 엔트로피(Entropy)
  5. 개별 사건의 엔트로피 기여도
  6. 엔트로피라는 용어에 대하여
  7. 정리
  8. 부록

1. 정보 교환(Communication)

A가 B에게 정보를 전달하는 상황을 상상해 봅니다.

  • A: 정보의 송신자(정보원)
  • B: 정보의 수신자

상황-1. 두 종류의 과일이 담겨 있는 바구니

바구니에 사과와 배가 들어 있습니다.

  1. A는 바구니에서 과일 한 개를 집고 어떤 과일인지 말한다.
  2. B는 A의 말을 듣고 그가 어떤 과일을 집었는지 안다.

A는 자신이 집은 과일이 무엇인지에 따라 아래와 같이 숫자로 말합니다.

  • 1 (사과)
  • 2 (배)

이 정보를 비트 단위로 표현한다면 필요한 비트 수는 1입니다.

log2(가능한 경우의 수)=log22=1 \begin{align} & \log_2{(가능한\ 경우의\ 수)} = \log_2{2} = 1 \end{align}

상황-2. 네 종류의 과일이 담겨 있는 바구니

바구니에 사과, 배, 감, 복숭아가 들어 있습니다.

  1. A는 바구니에서 과일 한 개를 집고 어떤 과일인지 말한다.
  2. B는 A의 말을 듣고 그가 어떤 과일을 집었는지 안다.

A는 자신이 집은 과일이 무엇인지에 따라 아래와 같이 숫자로 말합니다.

  • 1 (사과)
  • 2 (배)
  • 3 (감)
  • 4 (복숭아)

이 정보를 비트 단위로 표현한다면 필요한 비트 수는 2입니다.

log2(가능한 경우의 수)=log24=2 \begin{align} & \log_2{(가능한\ 경우의\ 수)} = \log_2{4} = 2 \end{align}

2. 특정 사건의 정보량(Information Content)

위에서 예로 든 <상황-1>과 <상황-2>를 다음 두 가지 측면에서 비교해 보는 것이 정보의 정량화를 이해하는데 도움이 됩니다.

  1. B의 입장에서 A의 말을 듣기 전에 자신이 예측했던 과일의 종류와 A의 말을 듣고 알게 된 과일의 종류가 일치했을 때 B가 우연히 맞춘 것에 대해 느끼는 놀람의 정도
  2. A가 집은 과일의 종류를 알고 있는 B와 이를 모르는 C가 A가 집은 과일 종류 맞추기 내기를 할 때 C가 정보 부재에 대하여 느끼는 아쉬움의 정도

먼저 놀람의 정도 측면에서 살펴보겠습니다.

상황-1. 두 종류의 과일이 담겨 있는 바구니

과일 종류별 분포에 대한 정보가 없기 때문에 균등 분포, 그리고 무작위 추출이라고 가정합니다.

  • B가 정보를 얻기 전
    • B는 A가 집은 과일이 사과일 것이라고 예측 (맞을 확률: 12=0.5\frac{1}{2} = 0.5)
  • B가 정보를 얻은 후
    • B는 A가 사과를 집었다는 말을 듣고 자신의 예측이 맞았다는 사실에 조금 놀람

상황-2. 네 종류의 과일이 담겨 있는 바구니

과일 종류별 분포에 대한 정보가 없기 때문에 균등 분포, 그리고 무작위 추출이라고 가정합니다.

  • B가 정보를 얻기 전
    • B는 A가 집은 과일이 사과일 것이라고 예측 (맞을 확률: 14=0.25\frac{1}{4} = 0.25)
  • B가 정보를 얻은 후
    • B는 A가 사과를 집었다는 말을 듣고 자신의 예측이 맞았다는 사실에 많이 놀람

B의 예측이 맞을 확률이 낮을수록 결과가 예측한 대로 나오면 더 놀라는 경향이 있습니다.

이번에는 아쉬움의 정도 측면에서 살펴보겠습니다.

B는 A가 무슨 과일을 집었는지 알고 있습니다. 이 사실을 모르는 C는 B와 내기를 합니다. 한 사람은 A가 집은 과일을 맞추고 다른 사람은 맞추지 못하면 맞춘 쪽이 이깁니다. 아래 각 상황에서 내기에 건 금액(예: 100만원)은 동일합니다.

상황-1. 두 종류의 과일이 담겨 있는 바구니

  • 정답 확인 전
    • B는 A가 집은 것이 무엇인지 알고 있으므로 사과라고 답함
    • C는 A가 집은 것이 무엇인지 모르므로 두 종류 중 무작위로 배라고 답함 (맞을 확률: 12=0.5\frac{1}{2} = 0.5)
  • 정답 확인 후
    • B: 내기에 이겨서 이득 발생 (자신이 가지고 있는 정보로 인해 이길 확률이 조금 높아졌므로 정보가 조금 가치 있었다고 여김)
    • C: 내기에 져서 손실 발생 (정보 부재로 자신이 이길 확률이 조금 낮아졌으므로 정보 부재에 대해 조금 아쉬워함)

상황-2. 네 종류의 과일이 담겨 있는 바구니

  • 정답 확인 전
    • B는 A가 집은 것이 무엇인지 알고 있으므로 사과라고 답함
    • C는 A가 집은 것이 무엇인지 모르므로 네 종류 중 무작위로 배라고 답함 (맞을 확률: 14=0.25\frac{1}{4} = 0.25)
  • 정답 확인 후
    • B: 내기에 이겨서 이득 발생 (자신이 가지고 있는 정보로 인해 이길 확률이 매우 높아졌으므로 정보가 매우 가치 있었다고 여김)
    • C: 내기에 져서 손실 발생 (정보 부재로 자신이 이길 확률이 매우 낮아졌으므로 정보 부재에 대해 매우 아쉬워함)

C의 입장에서는 <상황-1>에 비해 <상황-2>에서 내기에 질 가능성이 높습니다. 따라서 A가 집은 과일이 무엇인지 알고 내기에 참여할 수 있다면 그 정보의 가치는 <상황-1>보다 <상황-2>에서 더 크다고 여길 것입니다.

위에서 다룬 놀람의 정도, 아쉬움의 정도와 같은 정성적 평가들을 반영하여 정보량을 정의한 수식은 아래와 같습니다.

I(x)=log2P(x) \begin{align} & I(x) = -log_2{P(x)} \end{align}

  • xx는 개별 사건(값)
    • <상황-1>에서 xx가 가질 수 있는 값: 사과, 배
    • <상황-2>에서 xx가 가질 수 있는 값: 사과, 배, 감, 복숭아
  • P(x)P(x)xx가 발생할 확률
  • I(x)I(x)는 발생한 사건이 xx임을 알았을 때 얻게 되는 정보량

상황별로 위 수식에 따라 계산한 정보량은 다음과 같습니다.

상황-1. 두 종류의 과일이 담겨 있는 바구니

P(x)=12I(x)=log2P(x)=log212=1 \begin{align} & P(x) = {1 \over 2} \\ & I(x) = - log_2{P(x)} = - log_2{1 \over 2} = 1 \end{align}

I(x=사과)=1I(x=)=1 \begin{align} & I(x=사과) = 1 \\ & I(x=배) = 1 \end{align}

가 됩니다.

상황-2. 네 종류의 과일이 담겨 있는 바구니

P(x)=14I(x)=log2P(x)=log214=2 \begin{align} & P(x) = {1 \over 4} \\ & I(x) = - log_2{P(x)} = - log_2{1 \over 4} = 2 \end{align}

I(x=사과)=2I(x=)=2I(x=)=2I(x=복숭아)=2 \begin{align} & I(x=사과) = 2 \\ & I(x=배) = 2 \\ & I(x=감) = 2 \\ & I(x=복숭아) = 2 \end{align}

가 됩니다.

각 상황별로 계산한 정보량의 상대적인 크기가 놀람의 정도, 아쉬움의 정도라는 정성적 비교와 어긋나지 않음을 알 수 있습니다.

3. 정보원으로부터 얻을 수 있는 정보량에 대한 기댓값

정보량에 대한 기댓값은 각 사건 xix_i의 정보량 I(xi)I(x_i)에 해당 사건이 발생할 확률 P(xi)P(x_i)를 곱한 값들을 모두 더하여 계산합니다.

E[I(X)]=iP(xi)I(xi)=iP(xi)log2P(xi) \begin{align} & E[I(X)] = \sum_i P(x_i) I(x_i) = - \sum_i P(x_i) log_2{P(x_i)} \end{align}

여기서,

  • XX는 확률변수입니다.

상황별로 정보량에 대한 기댓값을 계산하면 아래와 같습니다.

상황-1. 두 종류의 과일이 담겨 있는 바구니

E[I(X)]=P(x1)I(x1)+P(x2)I(x2)=121+121=1 \begin{align} E[I(X)] & = P(x_1) I(x_1) + P(x_2) I(x_2) \\ & = {1 \over 2} \cdot 1 + {1 \over 2} \cdot 1 \\ & = 1 \end{align}

위 수식에서

x1:사과x2: \begin{align*} & x_1: 사과 \\ & x_2: 배 \end{align*}

입니다.

상황-2. 네 종류의 과일이 담겨 있는 바구니

E[I(X)]=P(x1)I(x1)+P(x2)I(x2)+P(x3)I(x3)+P(x4)I(x4)=142+142+142+142=2 \begin{align} E[I(X)] & = P(x_1) I(x_1) + P(x_2) I(x_2) + P(x_3) I(x_3) + P(x_4) I(x_4) \\ & = {1 \over 4} \cdot 2 + {1 \over 4} \cdot 2 + {1 \over 4} \cdot 2 + {1 \over 4} \cdot 2 \\ & = 2 \end{align}

위 수식에서

x1:사과x2:x3:x4:복숭아 \begin{align*} & x_1: 사과 \\ & x_2: 배 \\ & x_3: 감 \\ & x_4: 복숭아 \end{align*}

입니다.

<상황-1>에서 개별 사건이 발생할 확률들이 모두 같기 때문에 아래 두 값은 서로 일치합니다.

  • 발생한 사건이 무엇인지 알았을 때의 정보량 I(x)I(x)
  • 정보원으로부터 하나의 정보를 얻게 될 때의 정보량에 대한 기댓값 E[I(X)]E[I(X)]

이것은 <상황-2>에도 동일하게 적용됩니다.

정보량과 기댓값에 대한 이해를 더 높이기 위하여 아래의 <상황-3>와 <상황-4>를 가정해 봅니다.

상황-3. 두 종류의 과일이 담겨 있는 바구니 (사과 3개, 배 1개 담겨 있고 무작위 추출)

B와 C는 다음 두 가지 정보를 추가로 알고 있습니다.

  • 바구니에 사과 3개, 배 1개가 들어 있다.
  • A는 무작위로 과일을 집는다.

위 두 가지 정보를 알고 있는 상태에서 A가 집은 과일이 무엇인지 알게 되었을 때의 정보량을 과일 종류별로 계산하면 다음과 같습니다.

I(x1)=log2340.415I(x2)=log214=2 \begin{align} I(x_1) &= -log_2{3 \over 4} \approx 0.415 \\ I(x_2) &= -log_2{1 \over 4} = 2 \end{align}

개별 사건이 발생할 확률을 적용하여 정보량에 대한 기댓값을 구하면 아래와 같습니다.

E[I(X)]=P(x1)I(x1)+P(x2)I(x2)34×0.415+14×20.811 \begin{align} E[I(X)] &= P(x_1) I(x_1) + P(x_2) I(x_2) \\ &\approx {3 \over 4} \times 0.415 + {1 \over 4} \times 2 \\ &\approx 0.811 \end{align}

상황-4. 두 종류의 과일이 담겨 있는 바구니 (사과 15개, 배 1개 담겨 있고 무작위 추출)

B와 C는 다음 두 가지 정보를 추가로 알고 있습니다.

  • 바구니에 사과 15개, 배 1개가 들어 있다.
  • A는 무작위로 과일을 집는다.

위 두 가지 정보를 알고 있는 상태에서 A가 집은 과일이 무엇인지 알게 되었을 때의 정보량을 과일 종류별로 계산하면 다음과 같습니다.

I(x1)=log215160.093I(x2)=log2116=4 \begin{align} I(x_1) &= -log_2{15 \over 16} \approx 0.093 \\ I(x_2) &= -log_2{1 \over 16} = 4 \end{align}

개별 사건이 발생할 확률을 적용하여 정보량에 대한 기댓값을 구하면 아래와 같습니다.

E[I(X)]=P(x1)I(x1)+P(x2)I(x2)1516×0.093+116×40.337 \begin{align} E[I(X)] &= P(x_1) I(x_1) + P(x_2) I(x_2) \\ &\approx {15 \over 16} \times 0.093 + {1 \over 16} \times 4 \\ &\approx 0.337 \end{align}

위에서 살펴 본 내용으로부터 XX의 확률 분포가 달라지면 다음 두 가지 값들도 달라진다는 사실을 알게 되었습니다.

  • 개별 사건이 발생했음을 알았을 때의 정보량 I(x)I(x)
  • 정보원으로부터 얻게 될 정보량에 대한 기댓값 E[I(X)]E[I(X)]

이를 다음과 같이 정성적으로 설명할 수 있습니다.

  1. XX의 확률 분포가 균등하지 않고 특정 형태를 가진다는 것을 알게 되었다. 즉 정보원과 관련하여 추가 정보를 얻었다.
  2. 추가 정보를 활용하면 예측의 불확실성이 감소한다.
    • 개별 사건별로 정보량이 증가할 수도 있고, 감소할 수도 있다.
    • 정보량에 대한 기댓값이 줄어든다. 달리 표현하자면 정보 부재에 대한 아쉬움이 감소한다.

4. 정보원의 엔트로피(Entropy)

정보이론에서의 엔트로피는 정보량에 대한 기댓값과 같은 말입니다.

H(X)=E[I(X)] \begin{align} H(X) = E[I(X)] \end{align}

여기서,

  • XX는 확률 변수
  • E[]E[\cdot]는 기댓값

사과를 집는 것과 같은 개별 사건에 대하여

  • 발생 확률이 작을수록 정보를 얻게 되었을 때의 가치, 즉 정보량이 크다.
    • 자주 일어나지 않는 사건이 일어났음을 아는 것은 정보로서의 가치가 크다.
  • 발생 확률이 클수록 정보를 얻게 되었을 때의 가치, 즉 정보량이 작다.
    • 자주 일어나는 사건이 일어났음을 아는 것은 정보로서의 가치가 작다.

과일을 집는 A, 즉 정보원에 대하여

  • 예측 불확실성이 클수록 정보량의 기댓값, 즉 엔트로피가 크다.
    • 확률 변수의 확률 분포가 넓게 퍼진 형태일수록 예측 불확실성이 높은 것이고 이러한 상태에서 어떤 결과를 알게 된다면 얻게 될 정보량은 클 것이라고 기대한다. 이 말은 다음 두 가지 표현과 동일한 의미를 가진다.
      • 정보원으로부터 얻게 될 정보량에 대한 기댓값이 크다.
      • 정보원의 엔트로피가 크다.
  • 예측 불확실성이 작을수록 정보량에 대한 기댓값, 즉 엔트로피가 작다.
    • 확률 변수의 확률 분포가 좁게 치솟은 형태일수록 예측 불확실성이 낮은 것이고 이러한 상태에서 어떤 결과를 알게 된다면 얻게 될 정보량은 작을 것이라고 기대한다. 이 말은 다음 두 가지 표현과 동일한 의미를 가진다.
      • 정보원으로부터 얻게 될 정보량에 대한 기댓값이 작다.
      • 정보원의 엔트로피가 작다.

5. 개별 사건의 엔트로피 기여도

개별 사건이 엔트로피, 즉 정보량에 대한 기댓값에 기여하는 정도는 아래와 같이 같습니다.

P(xi)×I(xi)=P(xi)×log2P(xi) \begin{align} P(x_i) \times I(x_i)= -P(x_i) \times log_2{P(x_i)} \end{align}

위 수식으로부터 다음과 같은 내용들을 알 수 있습니다.

  • xix_i가 정보량에 대한 기댓값에 기여하는 정도는 PP가 0.35와 0.4 사이의 값을 가질 때 가장 크다.
  • 발생 확률이 작은 사건 xix_i가 발생했음을 알았을 때 얻는 정보량은 크지만 그것이 정보량에 대한 기댓값에 기여하는 정도는 작다.

6. 엔트로피라는 용어에 대하여

정보량에 대한 기댓값을 지칭하는 엔트로피라는 용어는 통계역학으로부터 유래했습니다.

  • 통계역학에서의 엔트로피: 물리적 시스템의 미시적 상태에 대한 정보의 부족
  • 정보이론에서의 엔트로피: 메시지나 신호의 불확실성

그렇다면 정보이론에서 없어도 될 엔트로피라는 용어를 굳이 차용한 것은 잘한 선택일까요?

  • 물리 영역에서의 엔트로피는 다양한 측면에서 광범위하게 논의되고 있는 물리량인데 그 중에서도 열역학 제2법칙, 즉 엔트로피 증가의 법칙과 같은 내용은 정보이론에서의 엔트로피라는 개념과 혼재되어 이해를 더 어렵게 만드는데 크게 일조합니다.
  • 엔트로피의 개념을 개별 사건의 개수와 확률 분포의 형태에 따라 달라지는 예측의 불확실성을 나타내는 것으로 국한시킨다면 정보이론에서 엔트로피라는 용어를 차용한 것은 꽤나 괜찮아 보이는 선택입니다.

7. 정리

상황별로 정보량, 그리고 정보량에 대한 기댓값(엔트로피)을 정리하면 다음과 같습니다.

상황-1. 두 종류의 과일이 담겨 있는 바구니

I(x1)=1I(x2)=1E[I(X)]=1 \begin{align} I(x_1) &= 1 \\ I(x_2) &= 1 \\ E[I(X)] &= 1 \end{align}

상황-2. 네 종류의 과일이 담겨 있는 바구니

I(x1)=2I(x2)=2I(x3)=2I(x4)=2E[I(X)]=2 \begin{align} I(x_1) &= 2 \\ I(x_2) &= 2 \\ I(x_3) &= 2 \\ I(x_4) &= 2 \\ E[I(X)] &= 2 \end{align}

상황-3. 두 종류의 과일이 담겨 있는 바구니 (사과 3개, 배 1개 담겨 있고 무작위 추출)

I(x0)=log2340.415I(x1)=log214=2E[I(X)]=P(x1)I(x1)+P(x2)I(x2)34×0.415+14×20.811 \begin{align} I(x_0) &= -log_2{3 \over 4} \approx 0.415 \\ I(x_1) &= -log_2{1 \over 4} = 2 \\ E[I(X)] &= P(x_1) I(x_1) + P(x_2) I(x_2) \\ &\approx {3 \over 4} \times 0.415 + {1 \over 4} \times 2 \\ &\approx 0.811 \end{align}

상황-4. 두 종류의 과일이 담겨 있는 바구니 (사과 15개, 배 1개 담겨 있고 무작위 추출)

I(x0)=log215160.093I(x1)=log2116=4E[I(X)]=P(x1)I(x1)+P(x2)I(x2)1516×0.093+116×40.337 \begin{align} I(x_0) &= -log_2{15 \over 16} \approx 0.093 \\ I(x_1) &= -log_2{1 \over 16} = 4 \\ E[I(X)] &= P(x_1) I(x_1) + P(x_2) I(x_2) \\ &\approx {15 \over 16} \times 0.093 + {1 \over 16} \times 4 \\ &\approx 0.337 \end{align}

위에서 정리한 내용을 토대로 다음과 같은 결론을 얻을 수 있습니다.

<상황-1>과 <상황-2>의 비교

각각의 상황에서 개별 사건이 발생할 확률은 균등하게 분포되어 있고 <상황-2>에서 사건의 종류가 증가하였습니다. 이로 인해 <상황-2>는 <상황-1>에 비해 다음과 같은 특성을 보입니다.

  1. 개별 사건의 발생 확률 감소
  2. 개별 사건이 가지는 정보량 증가 (필요한 비트 수 증가)
  3. 정보원으로부터 얻을 수 있는 정보량에 대한 기댓값 증가 (엔트로피 증가)

과일 종류가 추가됨으로 인해 A가 집은 과일을 맞추는 것이 더 어려워졌고, 즉 예측 불확실성이 증가했고 이것은 엔트로피 증가가 의미하는 바와 일치합니다.

<상황-1>과 <상황-3>의 비교

각각의 상황에서 과일 종류는 동일한데 <상황-3>에서는 과일 종류별 분포에 대한 정보가 추가되었습니다. 이로 인해 <상황-3>는 <상황-1>에 비해 다음과 같은 특성을 보입니다.

  1. 개별 사건의 발생 확률이 균등하지 않음 (증가한 것도 있고 감소한 것도 있음)
  2. 개별 사건이 가지는 정보량이 사건별로 다름 (발생 확률이 낮은 사건이 발생했을 때의 정보량이 더 큼)
  3. 정보원으로부터 얻을 수 있는 정보량에 대한 기댓값 감소 (엔트로피 감소)

특정 과일이 얼마나 더 많은지에 대한 정보가 추가됨으로 인해 A가 집은 과일을 맞추는 것이 더 쉬워졌고, 즉 예측 불확실성이 감소했고 이것은 엔트로피 감소가 의미하는 바와 일치합니다.

8. 부록

  1. 정보량의 정의에서 로그의 밑으로 2를 사용하였는데 이는 비트 수를 구할 때 적합한 것이며 단위로서의 비트를 섀넌(Shannon)이라고도 부릅니다. 비트 수를 구하는 것이 아닐 때에는 자연 상수나 10을 밑으로 사용해서 정보량과 기댓값을 구하기도 합니다.
    • 냇(nats): 자연 상수(e)를 로그의 밑으로 사용
    • 하틀리(hartleys) 또는 딧(dits): 10을 로그의 밑으로 사용

Written with StackEdit.

댓글

이 블로그의 인기 게시물

Windows에 AMP와 MediaWiki 설치하기

1. 들어가기     AMP는 Apache + MySQL +  Perl/PHP/Python에 대한 줄임말이다. LAMP (Linux + AMP)라고 하여 Linux에 설치하는 것으로 많이 소개하고 있지만 Windows에서도 간편하게 설치하여 사용할 수 있다.       이 글은 Windows 7에 Apache + MySQL + PHP를 설치하고 그 기반에서 MediaWiki를 설치하여 실행하는 과정을 간략히 정리한 것이다. 2. MySQL     * 버전 5.6.12     1) 다운로드         http://dev.mysql.com/downloads/installer/         MySQL Installer 5.6.12         Windows (x86, 32-bit), MSI Installer         (mysql-installer-web-community-5.6.12.0.msi)     2) 다운로드한 MSI 파일을 더블클릭하여 설치를 진행한다.           설치 위치:                   C:\Program Files\MySQL               선택 사항:                       Install MySQL Products             Choosing a Se...

MATLAB Rutime 설치하기

MATLAB Rutime 설치하기 미설치시 에러 MATLAB Runtime 을 설치하지 않은 환경에서 MATLAB 응용프로그램이나 공유 라이브러리를 사용하려고 하면 아래와 같은 에러 메시지가 표시될 것입니다. 처리되지 않은 예외: System.TypeInitializationException: 'MathWorks.MATLAB.NET.Utility.MWMCR'의 형식 이니셜라이저에서 예 외를 Throw했습니다. ---> System.TypeInitializationException: 'MathWorks.MATLAB.NET.Arrays.MWArray'의 형식 이니셜라이저에서 예외를 Throw했습니다. ---> System.DllNotFoundException: DLL 'mclmcrrt9_3.dll'을(를) 로드할 수 없습니다. 지정된 모듈을 찾을 수 없습니다. (예외가 발생한 HRESULT: 0x8007007E) 위치: MathWorks.MATLAB.NET.Arrays.MWArray.mclmcrInitialize2(Int32 primaryMode) 위치: MathWorks.MATLAB.NET.Arrays.MWArray..cctor() --- 내부 예외 스택 추적의 끝 --- 위치: MathWorks.MATLAB.NET.Utility.MWMCR..cctor() --- 내부 예외 스택 추적의 끝 --- 위치: MathWorks.MATLAB.NET.Utility.MWMCR.processExiting(Exception exception) 해결 방법 이 문제를 해결하기 위해서는 MATLAB Runtime 을 설치해야 합니다. 여러 가지 방법으로 MATLAB Runtime 을 설치할 수 있습니다. MATLAB 이 설치되어 있는 경우에는 MATLAB 설치 폴더 아래에 있는 MATLAB Runtime 설치 프로그램을 실행하여 설치합니다. ...

Wi-Fi 카드 2.4GHz로만 동작시키기

Wi-Fi 카드 2.4GHz로만 동작시키기 별도의 Wi-Fi AP 장치를 두지 않고 아래와 같은 기기들로만 Wi-Fi 네트워크를 구성하고자 할 때 주변 기기들이 2.4GHz만 지원하기 때문에 PC에서 실행하는 AP가 항상 2.4GHz를 사용하도록 Wi-Fi 카드를 설정해 주어야 합니다. 기기 Wi-Fi 카드 주파수 대역 Wi-Fi Direct 지원 PC (Windows 10) 2.4GHz, 5GHz O 주변 기기들 2.4GHz X Wi-Fi 카드별 주파수 대역 선택 방법 Windows 시작 메뉴에서 설정 을 클릭합니다. Windows 설정 화면에서 네트워크 및 인터넷 을 클릭합니다. 설정 화면의 왼쪽 메뉴바에서 Wi-Fi 를 클릭합니다. 화면 오른쪽 관련 설정 구역에 있는 어댑터 옵션 변경 을 클릭합니다. 설정을 바꾸고자 하는 Wi-Fi 카드 항목을 선택하고 마우스 오른쪽을 누른 다음 속성 메뉴를 클릭합니다. 대화상자의 네트워킹 탭 화면에 있는 구성 버튼을 클릭합니다. 장치 속성 대화상자의 고급 탭 화면으로 이동합니다. 제시되는 속성 항목들은 제품별로 다르며 자세한 사항은 아래의 제품별 설명을 참고하여 값을 설정하시기 바랍니다. Intel Dual Band Wireless-AC 7265 기술 사양 주파수 대역: 2.4GHz, 5GHz 무선 표준: 802.11ac 주파수 대역 선택 장치 속성 대화상자에서 아래와 같이 선택합니다. Wireless Mode 1. 802.11a => 5GHz 4. 802.11b/g => 2.4GHz (이 항목 선택) 6. 802.11a/b/g => 2.4GHz, 5GHz Intel Dual Band Wireless-AC 8265 기술 사양 주파수 대역: 2.4GHz, 5GHz 무선 표준: 802.11ac 주파수 대역 선택 장치 속성 대화상자에서 아래와 같이 ...