1. 왜 우리는 Physics-informed 기법에 열광하는가
Brown University 연구그룹에서 physics-informed neural networks (PINNs) 논문이 출판되고 5년이 지난 2024년 현재 PINNs 그리고 후속 모델 DeepONet에 대한 인기는 전 세계 학계에서 식을 줄을 모르고 있다 [1, 2]. 어쩌면 연구계와 산업계까지 포함하여 더 큰 관심을 받고 있다고 느껴진다. 그렇다면 physics-informed가 무엇이고 왜 전 세계 연구자들이 이에 열광하는 것일까?
특히 인공지능 관련 연구를 학계에서 발표해 본 학생들은 빠짐없이 느꼈을 텐데, 항상 인공지능 기술은 블랙박스라는 우려를 받는다. 혹은 커브 피팅에 불과하다는 공격을 받을 때도 드물지 않다. 속상하지만 이는 부분적 사실이다.
저번 칼럼에서 소개한 것처럼 Universal approximation theorem을 통해 여러 은닉층의 multi-layer perceptron (MPL) 구조가 비선형 방정식을 정확하게 근사할 수 있다는 것을 이론적으로 증명할 수 있다.
하지만 이러한 이론적 증명은 필요한 파라미터 수와 학습 방식에 대해 특정할 수 없을 뿐더러, 현대의 더욱 복잡해진 convolutional neural networks (CNNs), recurrent neural networks (RNNs), Transformer 등의 인공 신경망 구조에 대해서는 아직 증명되지 못했다.
컴퓨터 공학이나 전자 공학과 같이 전통 인공지능 알고리즘을 개발하는 분야에서 주로 다루는 이미지 혹은 자연어 처리 분야의 경우 이러한 질문에서 상대적으로 자유롭다. 이미지와 자연어는 우리가 일상생활에서 매일 접할 수 있기 때문에 방대한 데이터를 수집하기 용이하다. 또한 이러한 높은 차원의 함수를 근사할 수 있는 것은 현대의 인공지능 기술이 유일하기 때문이다.
특히 OpenAI 사가 특정 스케일의 파라미터 수가 도달했을 때 GPT의 자연어 처리 능력이 급증함을 확인한 것은 매우 유명한 이야기이다. 천문학적 파라미터 스케일의 인공 신경망을 학습하기 위해서는 마찬가지로 천문학적인 데이터양이 요구되고, 이 경우 우리는 더 이상 인공지능을 커브 피팅으로 여길 수 없다.
또한 GPT의 엄청난 성능은 사람들의 블랙박스 논란을 잠재우기 충분했다. 이렇게 훌륭한 비서를 한 달에 25달러로 사용할 수 있다면, 이제 더 이상 블랙박스인지 아닌지는 중요하지 않다.
하지만 physics를 포함한 공학분야(혹은 과학분야)에서의 상황은 전혀 다르다. 여기서의 공학분야란 partial differential equation (PDE) 기반의 물리방정식 모델링 연구가 주로 수행되는 분야를 의미한다.
Physics 역시 자연현상을 모사할 수 있는 물리방정식을 나타낸다고 이해할 수 있다. 나비에-스토크 방정식을 계산하는 유체역학 분야, 응력 방정식을 계산하는 고체역학 분야가 가장 대표적이다. 꼭 PDE 형태가 아니더라도 일반적인 공학분야에서 우리는 이론적으로 혹은 실험적으로 물리방정식을 세우고, 검증하여 산업에 활용한다.
인공지능을 하나의 발전된 통계 모델이라고 이해한다면, 통계만으로 유체 흐름을 시뮬레이션 하는 것은 물리방정식 기반의 연구를 해온 유체분야 종사자들에게 너무나 낯설다. "신은 주사위를 던지지 않는다"라고 말한 아인슈타인도 비슷한 감정을 느낀 것일지도 모른다. "성능만 좋으면 되지"라는 생각은 이러한 분야에서 통하기 어렵다.
산업에서 우리가 이러한 공학적 시스템 혹은 제품을 설계했을 때 그 성능과 안전성을 인정받아야 하고 이때 우리가 어떻게 성능과 안전성을 평가했는지 방법론을 납득시키는 것 또한 상당히 중요하다.
개인 단위에서 GPT가 잘못된 답변을 했을 때 우리의 위험성은 분노 수준에 그치겠지만 (물론 가짜뉴스 등 더 심각한 부작용도 있을 수 있다), 제조분야에서 잘못된 예측 모델이 사용될 경우 그 파장은 훨씬 클 것이다.
그렇기 때문에 전문가들의 검증을 받아야 하고, 이 경우 인공지능 모델의 정확도 성능만으로는 불충분할 확률이 높다. 이 때문에 많은 연구자들이 어떻게든 인공지능 모델에 physics를 포함시키려는 것이다. 이 경우 인공지능 모델의 정확성을 physics 관점에서 이해할 수도 있으며 설명 가능한 인공지능으로 이어질 수 있다.
이러한 사람들의 본능적 거부감 외에도 통계적으로 이러한 분야에서 일반적인 인공지능 모델을 활용하기 어려운 이유가 있다. 선형회귀 시간에 배웠던 것처럼, 선형회귀를 확률론적으로 이해한다면 우리의 데이터는 항상 오차를 가지고 이 오차는 가우시안 분포를 따르는 것을 가정한다.
이때 오차가 가우시안 분포를 따르려면 우리는 충분한 양의 데이터가 요구된다. 만약 데이터의 양이 충분하여 오차가 왜곡된 분포를 가진다면 우리는 아무리 많은 학습과정을 거쳐도 최적의 함수를 찾을 수 없다. 이 점에 서 공학분야에서는 자연어와 이미지 분야와 다르게 충분한 양의 데이터를 확보하기 매우 어렵다.
충분한 양의 데이터라는 표현이 너무 주관적이기 때문에 예시를 들자면 유체역학 분야에서 CFD 정상 상태 예측 모델을 학습 시킬 때 보통 사용되는 이미지의 개수가 10^5 이상의 스케일이다.
실험 분야에서의 데이터 생산 난이도는 더욱 높은데, 우리가 물리량 x1,x2, ..., xn에 대한 y값을 예측하는 인공 지능 모델을 학습시키기 위해 실험 데이터를 생성할 때 우리는 1,000개 스케일의 데이터 생산도 무리인 경우가 대다수이다. 사실 1,000개 스케일의 데이터로 함수가 정확히 근사 된다면 인공지능 모델이 필요 없다 는 역설적인 의미이다.
좋은 소식은 많은 연구들이 우리가 인공지능 모델에 physics를 어떻게든 고려했을 때 학습에 필요한 데이터 양을 줄일 수 있음을 보인다. 특히 그림1과 같이 미학습 데이터 영역에 대한 예측 성능이 크게 개선될 수 있다.
결론적으로 우리에게 physics-informed machine learning (PIML)이 필요한 이유는 크게 2가지이다.
(1) 같은 데이터 양으로도 (혹은 데이터 없이) 더 높은 예측 성능을 갖기 위해 (특히 미학습 데이터 영역에서)
(2) 인공지능 모델의 높은 성능에 대한 물리적/이론적 근거를 제시하기 위해.
본 칼럼의 마지막 시리즈인 이번 칼럼에서는 PIML을 큰 틀에서 분류하고 대표 연구들에 대해 간략히 소개하고자 한다. 부디 이번 시리즈를 통해 독자 여러분들이 인공지능의 기초부터 공학분야에서의 인공지능 활용 방안에 힌트를 얻기를 진심으로 희망한다.
😥 미리 보기는 여기까지!
내용을 이어서 보고 싶다면,
아래 정보를 입력해 주세요.