티스토리 뷰
1. Introduction
Data에 100% 의존하지 않고, 우리가 선험적으로 알고 있는 지식을 활용해서
보다 적은 수의 데이터를 활용하면서 동시에 기존 Domain knowledge를 잘 융합하는 것에 대한 키워드이다.
Brown 대학에서 publish한 논문이 꽤 유명하다.
"Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations"
위 논문에서 여러 가지 analytical solution이 존재하는 ODE/PDE를 PINN으로 구현하고 코드를 공개해두었다.
해당 링크: https://github.com/maziarraissi/PINNs
그리고: Deepxde라는 라이브러리를 개발하여 PINN을 구현하는데 필요한 라이브러리를 공개하면서 SIAM저널에 낸 논문을 발견할 수 있다.
PINN은 어쩌면 디지털 트윈에서의 가장 핵심적인 기술이 될 수 도 있을 것 같다.
포항공대의 이승철 교수님 연구팀에서 관련 연구를 follow-up하다는 것을 알게 되었고,
유튜브에 관련 영상 몇개가 올라와서 그것을 바탕으로 내 컴퓨터 GPU 세팅에서 실습을 해보았다.
내가 보려고 올리는 유튜브 링크: https://www.youtube.com/watch?v=vFghJ0r39K4
2. 실습 예제 및 코드
여기에 full-code가 공개되어 있다.
출처: https://drive.google.com/file/d/1K608M2fwNwUOmhv-ouovVc0AImaPVvRQ/view
Step 1. Import library
Step 2. Define Network and hyperparameters
Step 3. Define ODE system
Step 4. Train & Prediction
Step 5. Test
여러 가지 하이퍼 파라미터를 더 조절해서 읨의로 SIMULATION을 더 해보았다.
Case study: hidden layer를 2배 늘린 경우 (= 2^6)
1차 시도: 실패: Score가 떨어지지 않았다.
2차 시도: hidden layer의 층을 2배 늘린 경우 (뉴런 갯수 고정) 성공: accuracy가 좋아졌다.
불과 한층만 같은 갯수의 뉴런으로 쌓았을 뿐인데도, accuracy가 훨씬 좋아진 모습이다.
3. 짧은 포스팅을 마치며 후기
짧은 실습 후기로 몇 가지 insights를 얻었다.
1. 방법론이 working 한다는 것 자체는 이미 학계에서 관심을 끌었다. 다시 말하여, 내 분야에 잘 접목하여 이를 적용할 수 있으면 충분히 융합 연구 및 분야 확장성 측면의 큰 강점을 가져갈 수 있다. 왜냐하면 나만의 "domain knowledge"가 있기 때문이다.
2. Hyper parameter optimization이 굉장히 중요하다.
경험적인 부분이 굉장히 크게 작용한다는 점을 알 수 있었다. 손을 많이 탄다는 것은, case-by-case로 NN이 적용될 수 있다는 것을 뜻하기도 한다. Universial approximator를 얼마나 잘 활용하느냐는 것은 결국 DL engineer의 역량이 될 것이다.
3. HP optimization platform & methodology 연구에 대해서도 관심을 기울이자.
PINN이 WORKING 한다는 것에 대해서는 어느 정도의 consensus가 모아진 상황이다. 그 다음으로는? accracy를 얼마나 보장해줄 수 있을 것인지 다시 말하여, local 문제들에 대해서도 적용할 수 있는 generalized hyperparameter optimization이 큰 키워드로 떠오르게 된다. 논리상 그게 맞다.
4. Big group에서의 최신 연구를 계속 follow-up 해보자.
CS 분야라 그런지 업데이트 속도가 굉장히 빠르고 많은 사람들이 관심을 갖는 것 같다. 브라운 대학의 최신 연구들을 잘 팔로우업 해보면 leading researcher는 아니더라도 fast-follower는 가능할 것이라고 생각이 든다.
다음 포스팅에서는 HP optimization에 대해 포스팅할 예정이다.
오늘의 일기 끝.
'AI STUDY > Python' 카테고리의 다른 글
[Python] 22.08.31 딥러닝 실습 (3탄: PINN - DeepXDE) (0) | 2022.08.31 |
---|---|
[Python] 22.08.20 딥러닝 실습 (1탄: AutoKeras) (0) | 2022.08.21 |
[Python] 22.08.15 딥러닝을 위한 텐서플로우/GPU 세팅 (CUDA, cuDNN) (0) | 2022.08.15 |
[Python] 22.06.05 최적화 패키지 실습 (1탄) (2) | 2022.06.05 |
[Python] 21.12.11 Pycaret 패키지 실습 (2탄) (0) | 2021.12.11 |
- Total
- Today
- Yesterday
- 라틴어수업
- 한동일
- 박사 후 연구원
- LCA 분석
- Jinsustory
- 연구 일기
- 공학박사
- 포닥 임용
- 공학 박사
- 포닥 이후 진로
- 라틴어 수업
- 대학원생
- 미국 박사 후 연구원
- 국내 포닥
- 행잉플랜트
- 공학 박사 일기장
- 주간리포트
- 해외포닥
- 식물일기
- 틸란드시아
- 포닥 2년차
- 공학박사 일기장
- 미국 포닥
- 박사 일기
- 논문 일기
- 독후감
- 포닥 일기
- 박사일기
- 박사과정
- 해외 포닥
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |