티스토리 뷰

 

내가 속한 그룹은 아니지만, 비슷한 연구를 하는 옆랩 교수님 연구실에서 두 명의 학생이 디펜스를 하는 날이었다.

나름 유행하는 주제를 가지고 두명이 거의 연달아 발표를 하였는데,

 

특히 한 명은 알면식도 없이 단순 호기심으로 참석했다.. ㅎㅎ

개인적인 관심사와 더불어 향후 연구 테마 & 방향성 발굴에 나름 도움이 되었던 듯하다.

여담으로 모든 미국 대학이 다 이렇지는 않겠지만, 해외 박사들의 디펜스 분위기도 구경할 수 있다.



[1] Physics-Informed Neural Network (PINN)
1.1 Novel contribution 3가지에 대해 고민: New Problem & Accuracy & Computational Speed
 - 서론으로써 누구나 대동소이한 문제제기를 가져오는 듯 보인다.
 - Multi-scale decision: 역시 중요한 문제 키워드
 - White box (FP) - Black box (DD; ML)

1.2 Hybrid modeling에 대한 방법론
 - Hybridize 자체에 대한 다양한 방법론 또한 곁가지로써 연구 주제가 될 수 있어보인다.
 - Transfer learning (TL) 역시 쓸모있어보이는 키워드이다.



[2] Neural Operator & Neural ODE (NODE)
 - 관련 논문은 좀 읽어보면서 공부를 더 해봐야 할 듯하다.
 - Receiver Operator Curve (ROC) 새로운 용어를 하나 배웠다.
 - Stochastic Gradient Descent (SGD) 흔하게 사용되는 트레이닝 기법.
 - Test & Training data 간의 easy-hard 정도에 따라 performance를 비교하고, data의 sparsity (= training ratio)에 따라서도 performance를 비교했다. 이런 식으로 성능 비교를 하는 구나 보고 알게된 점.



[3] 개인적인 생각
 - 첫 번째 학생은 세 가지 Case Study를 통해 toy problem을 풀었던 사례를 보여주었는데, 이 부분은 아쉬웠다: 성능 / 오차 비교 방법 / 최적화 결과 등 (마지막 챕터였는데, 완성이 아직 덜 된 것처럼 보였다?) - 오히려 이런 부분들은 순수 MATHEMATICS 쪽에서 보다 rigorous 하게 잘 하는 것 같다.
 - 디펜스 자료를 보면 교수님이 어느 정도로 학생들을 신경쓰는지 보이는 듯 하다 + 그 랩의 분위기도 포함?
 - 남들의 디펜스를 들으러 가보니, 연구의 지향점에 대해서 조금 씩 감이 오는듯 하다.
 - 박사 과정 저년차때는 테크닉 (실험 혹은 컴퓨테이션)을 통해 무엇을 구현해 내고, 목표를 달성하는 것에 초점이 맞춰져 있어서 큰 그림을 잘 보기가 힘들다.
- 나는 포닥물을 조금 먹고나서야 조금씩 그 이후 단게가 보이는 듯하다. "흥미롭고, 유의미하고, 새로운 질문"을 찾고 문제제기를 제대로 하는 것이 엄청 중요하다는 것을 깨닫는다.

 - 오히려 방법론 측면에서는 보다 간단할 수도 있는 것 같다.
 - 기본기가 탄탄한 엘리트 학생들은 테크닉이 일찍 완성되고, 연구적으로 훌륭한 PI 밑에서 빠르게 성과를 내고 짧은 포닥기간을 거쳐 자리를 잡는 듯하다. 그게 아니라면 보따리 장사를 조금 오래하면서 (나처럼) 트레이닝 과정이 더 필요한 듯하다.



[4] Paper-to-Read
 - Perspectives on the integration between first-principles and data-driven modeling (2023, Comput. Chem. Eng.): 읽어보면 공부가 꽤 될 것 같은 페이퍼
 - Physics-based Penalization for Hyperparameter Estimation in Gaussian Process Regression (2023, Comput. Chem. Eng.): 다음 연구 주제를 파면서 나름 도움을 받을 수 있을 것 같은 페이퍼


 


4주만 지나면 23년도 끝이다..!

한 해를 잘 마무리 해볼 것.

오늘의 간단 일기 끝.