Computational Neuroscience · 체험 학습

뉴런은 어떻게 시간을 처리할까?

컨볼루션(Convolution)과 러닝 어버리지(Running Average)를
직접 조작하며 이해해봅시다.

$$r(t) = \int s(t-\tau)\, f(\tau)\, d\tau$$
체험 시작하기 ↓

핵심 개념 한눈에 보기

🔁

컨볼루션이란?

입력 신호 $s(t)$와 필터 $f(\tau)$를 곱하고 모두 더하는 연산입니다.
필터는 과거 자극에 얼마나 가중치를 줄지 결정합니다.

$$r(t) = (s * f)(t) = \int s(t-\tau)\,f(\tau)\,d\tau$$
  • $s(t-\tau)$ : 시간 $\tau$ 이전의 입력
  • $f(\tau)$ : 필터 (커널)
  • $r(t)$ : 뉴런의 응답률
📦

러닝 어버리지란?

박스(직사각형) 형태의 필터를 사용한 특수한 컨볼루션입니다.
최근 $T$ 시간 동안의 평균 자극 세기를 계산합니다.

$$f(\tau) = \begin{cases} \dfrac{1}{T} & 0 \le \tau \le T \\ 0 & \text{otherwise} \end{cases}$$
  • $T$ : 평균을 낼 시간 창(Window)
  • 모든 과거 자극에 동일한 가중치
  • 박스 커널 = 직사각형 필터
🧠

뉴런의 관점에서

뉴런은 현재 자극만 보지 않습니다.
과거의 자극들을 필터로 가중합하여 현재 발화율을 결정합니다.

$$r(t) = \frac{1}{T}\int_0^T s(t-\tau)\,d\tau$$
  • 시간 필터링 = 선형 시불변 시스템
  • 과거 정보 통합 (temporal integration)
  • 스파이크 카운팅 ≈ 러닝 어버리지

🎮 인터랙티브 체험판

입력 신호와 필터를 직접 조작하고, 컨볼루션 결과를 실시간으로 확인하세요.

⚙️ 파라미터 조절

뉴런이 참고할 과거의 시간 범위를 설정합니다.
노이즈 추가 시 필터 효과가 더 잘 보입니다
현재 필터 $f(\tau)$ 형태
적용 중인 수식
INPUT 입력 신호 $s(t)$ 자극 세기
FILTER 필터 $f(\tau)$ 시간 가중 함수
OUTPUT 뉴런 응답 $r(t)$ 컨볼루션 결과
현재 시각 $t$ : 0

💡 직관적으로 이해하기

1

뉴런이 과거를 보는 창

현재 시각 $t$에서 뉴런은 과거 $\tau$만큼 이전의 자극 $s(t-\tau)$를 봅니다. 어디까지 볼지를 결정하는 것이 필터 $f(\tau)$입니다.

2

가중 합산

과거의 각 자극에 필터 값을 곱해 가중치를 부여합니다. 박스 필터는 동일한 가중치, 지수 필터는 최근일수록 높은 가중치를 줍니다.

3

스무딩(Smoothing) 효과

필터가 넓을수록 더 많은 과거를 평균하므로 신호가 부드러워집니다. 이것이 뉴런이 노이즈에 강한 이유입니다.

4

지연(Latency) 효과

과거를 평균하면 반응이 자극보다 약간 늦게 나타납니다. 컨볼루션의 자연스러운 결과이며, 뇌의 처리 지연과 연결됩니다.

필터 종류 비교

필터 수식 $f(\tau)$ 특성 신경과학적 의미
박스 $\frac{1}{T}$ (구간 내 균일) 모든 과거에 같은 가중치 스파이크 카운팅 (발화율 추정)
지수 감쇠 $e^{-\tau/\tau_0}$ 최근 자극에 높은 가중치 시냅스 후 전위 (EPSP) 형태
가우시안 $e^{-\tau^2/2\sigma^2}$ 중간 시점에 최대 가중치 도파민 신호, 예측 오차

Reverse Correlation & STA

뉴런의 수용영역(Receptive Field)을 역으로 추적하는 강력한 방법론

1. 왜 Reverse Correlation이 필요한가?

우리는 앞서 $r(t) = \int s(t-\tau) f(\tau) d\tau$ 라는 모델을 배웠습니다. 하지만 실제 실험 상황에서는 필터 $f(\tau)$를 미리 알 수 없습니다. 우리가 관찰할 수 있는 것은 오직:

  • 입력된 자극 $s(t)$
  • 뉴런이 반응한 스파이크 시점들

이 두 가지 정보만으로 미지의 필터 $f(\tau)$를 찾아내는 방법이 바로 Reverse Correlation입니다.

2. 핵심 아이디어: 반응에서 자극으로

보통은 자극 $\rightarrow$ 반응을 생각하지만, Reverse Correlation은 반응(스파이크) $\rightarrow$ 직전 자극을 역으로 추적합니다.

"스파이크가 발생한 순간들을 모아서, 그 직전의 자극들을 평균내보자."

🎮 실험: Spike-Triggered Average (STA)

아래 시뮬레이션에서 White Noise 자극이 뉴런에 들어갑니다. 뉴런은 특정 패턴(숨겨진 필터)에 반응하여 스파이크를 냅니다. 스파이크가 발생할 때마다 그 직전의 자극들을 모아 평균을 내면, 숨겨진 필터가 서서히 드러납니다.

총 스파이크: 0
현재 진행 시간: 0 ms
HIDDEN TRUTH 실제 (숨겨진) 필터 $f_{true}(\tau)$
STIMULUS 입력 자극 (White Noise) & 스파이크
RECOVERED 복원된 필터 (STA)
데이터가 쌓일수록 실제 필터와 같아집니다

3. 수학적 정의와 의미

Spike-Triggered Average (STA)의 정의는 다음과 같습니다:

$$\text{STA}(\tau) = \langle s(t_{spike} - \tau) \rangle$$
  • $t_{spike}$ : 스파이크가 발생한 모든 시점
  • $\tau$ : 스파이크 직전의 시간 차이
  • $\langle \dots \rangle$ : 평균 연산

놀라운 점은 자극이 White Noise이고, 뉴런이 선형 모델에 가깝다면, STA는 실제 필터 $f(\tau)$에 비례합니다. 즉, 뉴런이 "좋아하는" 자극 패턴이 평균에서 튀어나오게 됩니다.

4. 한계와 확장 (STC)

하지만 STA에도 중요한 한계가 있습니다.

🚧 비-White Noise 문제

단연 자극(이미지 등)은 픽셀 간 상관관계가 강합니다. 이 경우 STA는 필터가 아닌 자극 자체의 통계적 특성에 의해 왜곡됩니다.

🚧 대칭 비선형성 (Complex Cell)

만약 뉴런이 $r = (f \cdot s)^2$ 처럼 반응한다면, 양수/음수 자극 모두 스파이크를 만듭니다. 평균을 내면 서로 상쇄되어 STA가 0이 될 수 있습니다.

이를 해결하기 위해 등장한 것이 Spike-Triggered Covariance (STC)입니다. 평균뿐만 아니라 공분산(Covariance)의 변화를 분석하여, 숨겨진 여러 개의 필터나 비선형적인 특징까지 찾아낼 수 있습니다.

💡 결론

Reverse Correlation은 모델 없이 데이터만으로 뉴런의 선호 자극(Receptive Field)을 그려내는 가장 본질적인 실험 기법입니다.

🧪 이해도 확인 퀴즈