[기상청 API허브 사용법] 과거 기상 관측 데이터 가져오기 (feat. Python)
- 이번 글에서는 기상청 API허브를 통해 데이터를 로드하는 방법을 정리해보았습니다.
- 아무래도 설비 장비가 외부에 있어서 외기온도에 영향을 많이 받기 때문에, 기상청 데이터가 매 분석마다 필요한 상황입니다.⛅
- 비록 최소 단위가 ‘시간’이지만 n년 이상의 데이터를 볼 때 유용하게 쓰이기에, Data I/F 하는 과정을 기록해보았으니 참고 부탁드립니다.
제조 데이터 분석을 할 때 가장 활용도가 높은 공공 데이터는 무엇일까요?
바로 기상청 데이터입니다!⛅
제조 설비의 경우 외부에 위치해있는 케이스가 많이 때문에, 상온의 영향을 받기 쉽습니다. 그렇기 때문에 계절별, 분기별 외기온도에 따라 설비의 태그(센서)가 패턴을 가질 것이라고 추측할 수 있습니다.
그렇기 때문에 분석 프로젝트가 진행될 때 설비 인자들 뿐만 아니라 외기온도, 습도, 대기압 등의 기상청 정보가 추가로 필요한 케이스가 많습니다.
이때 저희 팀의 경우, 2가지 케이스로 데이터를 적재하는 편인데요! (실제로 기상청에서도 다음의 두 형태로 데이터를 제공함)
2가지 케이스의 장단점은 다음과 같습니다.
- file(CSV)
- 장점 : 원하는 기간을 설정하여 CSV 파일을 다운받아서 분석에 활용할 수 있음 (분당 데이터 가능)
- 단점 : 한번에 받을 수 있는 데이터수가 한정적이기 때문에, 기간을 쪼개서 여러 개의 CSV 파일을 다운 받아야함
- API(JSON, XML)
- 장점 : 원하는 기간을 설정하여 DB에 바로 적재할 수 있음
- 단점 : 최소 단위가 ‘시간’ 데이터임 (분당 데이터 들고올 수 없음)
보통은 분석 데이터 기간이 짧을 시에는 분당 데이터를 활용하기 때문에 CSV file을 다운받아서 loop문을 통해 DB에 적재하는 편인데,
2~3년 이상의 데이터의 경우에는 분당 데이터보다는 시간 or 일 단위 데이터를 활용하는 케이스도 있어서 API를 통해 DB에 적재하기도 합니다.
이번 포스팅에서는 데이터를 실시간으로 가져올 수 있는 방법인 API에 대해서 알아보도록 하겠습니다.
그렇다면 먼저 API란 무엇인지 간단하게라도 알아야겠죠?🔥
API란 Application Programming Interface의 약어로, 간단히 말하자면 기기 간 통신을 통하여 데이터나 정보를 주고 받을 수 있는 것입니다. 데이터 전송 시에는 흔히 많이 쓰이는 구조로는 JSON과 XML이 있습니다.
- JSON(JavaScript Object Notation)
- key-value 형태로 tree 구조를 이루고 있음 * 대부분의 데이터 형식을 다 담을 수 있다는 장점이 있어 아마 가장 많이 활용되는 자료구조임
- XML(Extensible Markup Language)
- 다른 종류의 시스템, 특히 인터넷에 연결된 시스템끼리 데이터를 쉽게 주고받을 수 있게 한 HTML의 한계를 극복할 목적으로 만들어짐
그중에서 Open API는 누구나 사용할 수 있도록 공개된 API를 말하며, 하나의 웹사이트에서 자신이 가지고 있는 기능을 이용할 수 있도록 공개한 것입니다. (ex. 네이버 지도, 구글 맵 등)
그럼 이제 Python으로 기상청 API허브를 통해 데이터를 로드하는 작업을 진행해보겠습니다.
1️⃣ 기상청 API허브 소개
기상청은 누구나 손쉽게 방대한 기상기후데이터를 활용하여 새로운 가치를 창출할 수 있도록 API허브((https://apihub.kma.go.kr/))를 운영하고 있습니다.
⛅ 콘텐츠 종류
기상청 API허브 홈페이지 메인 좌측을 보면 지상 관측자료, 해양 종합관측자료, 천리한 1호 데이터 파일 목록 등 다양한 날씨 정보가 제공됩니다.
이때 과거 지상에서 관측되었던 일기현상, 기온, 강수, 바람 등의 날씨 데이터가 필요하다면 홈페이지에서 지상관측을 눌러 들어가면 됩니다.
지상 관측자료에도 다양한 관측 정보가 존재하며, 각 탭을 누르게 되면 설명 및 보유기간이 상세히 적혀있습니다.
이번 예시에서는 종관기상관측(ASOS)로 진행하도록 하겠습니다.
2️⃣ 회원가입 및 사용자 API키
기상청 API허브에서 제공하는 API를 이용하기 위해서는 회원가입 후 인증키를 발급받아야 합니다.
🔑 사용자 API Key
데이터를 받아오기 위해서는 사용자에 대한 정보가 필요하며, 이때 사용하는 것이 바로 사용자 개별로 부여되는 API Key입니다.
발급받은 인증키는 로그인 후 우측 상단에 있는 마이페이지에서 확인할 수 있습니다.
인증키는 가입회원 본인만 사용할 수 있으며, 양도 및 대여가 금지되기 때문에 외부로 유출되지 않도록 조심하는 것이 좋습니다.
위 사진과 같이 개인 회원은 하루 최대 2,000건 호출할 수 있으며, 현재 몇 회 호출했는지도 확인 가능합니다. (기업 회원은 하루 최대 3,000건)
3️⃣ 콘텐츠 및 API 호출 URL 구조
제공하는 콘텐츠는 크게 3가지로 구성되어 있습니다.
- 데이터 설명 part
- 요소, 지점수, 보유기간, 생산주기 등에 대한 설명
- URL 발행 및 API 샘플코드 열람 가능
- API 호출 URL 정보 part
- 데이터를 호출하기 위해 필요한 API 호출 URL
- ‘API 활용신청’ 후 API 사용 가능
- API 호출 요청인자 및 출력결과 part
- 필수 입력 요청인자 설명
- 테이블 변수 설명
시간대별 관측자료, 일별 관측자료 등 원하는 데이터의 API 호출 URL 정보를 사용하면 됩니다.
이때 API 호출 URL 구조는 다음과 같습니다. 호출 입력인자와 사용자 인증키를 추가 파라미터로 입력해서 API를 요청하면 됩니다.
- 도메인주소 및 API소스코드
- 고정항목으로 변하지 않음
- URL 중 ‘?’ 바로 직전(.php)까지이며, 호출 입력인자와 ‘?’를 기준으로 구분함
- 호출 입력인자(input parameter)
- API 호출을 위한 필수 호출인자 입력 부분
- 인자와 인자 사이는 ‘&’를 기준으로 구분
- 아래 예시는 tm1에 201512110100, tm2에 201512140000, stn에 104, help에 1을 입력함
- 사용자 인증키
- API 서비스를 이용하기 위한 인증키
호출 입력인자의 경우, 기상청 API허브에 잘 설명이 되어있기 때문에 참고하여 작성하면 됩니다.
4️⃣ 데이터 로드
파이썬(Python)으로 종관기상관측(ASOS)의 시간자료(기간 조회) API를 호출하여 과거 한 시간 단위 지상 관측 날씨 데이터를 로드해오겠습니다.
✅ Import Module
먼저 필요한 라이브러리를 호출합니다.
import warnings
warnings.filterwarnings('ignore')
import pandas as pd
import requests
from datetime import datetime, timedelta
기본적으로 API를 호출하기 위하여 requests라는 python용 HTTP 모듈이 필요합니다. requests는 어떤 방식(method)의 HTTP 요청을 하느냐에 따라서 해당하는 이름의 method를 사용하면 됩니다.
requests.get()
: GET Methodrequests.post()
: POST Methodrequests.put()
: PUT Methodrequests.delete()
: DELETE Method
✅ Weather Function
다음의 코드와 같이 tm, stn_id, auth에 파라미터 값을 입력하여 데이터를 불러올 수 있지만,
function을 구현하면 좀 더 간편하고 보기 좋게 들고 올 수 있기 때문에 function을 만들어보도록 하겠습니다.
col_name = ["TM","STN","WD","WS","GST_WD","GST_WS","GST_TM","PA","PS","PT","PR","TEMP","TD","HM","PV"
,"RN","RN_DAY","RN_JUN","RN_INT","SD_HR3","SD_DAY","SD_TOT","WC","WP","WW","CA_TOT","CA_MID","CH_MIN"
,"CT","CT_TOP","CT_MID","CT_LOW","VS","SS","SI","ST_GD","TS","TE_005","TE_01","TE_02","TE_03","ST_SEA","WH","BF","IR","IX"]
headers = { # 헤더 설정
'Content-Type': 'application/json' # JSON 형식 설정
}
# 요청할 URL 설정
domain = "https://apihub.kma.go.kr/api/typ01/url/kma_sfctm3.php?"
tm = "tm1=202305141200&tm2=202305150000&"
stn_id = "stn=279&"
option = "help=0&authKey="
auth = "XXXXXXXXXXXXXXXX" # 부여받은 API Key 입력
url = domain + tm + stn_id + option + auth
response = requests.get(url, headers=headers) # GET 요청
text = response.text
text = text.split("\n")[4:-2]
df = pd.DataFrame(text)[0].str.split(expand=True)
df.columns = col_name
데이터 컬럼명을 지정해주고, 해당 기간의 날씨 데이터를 불러오는 function 코드는 다음과 같습니다.
- 호출 입력인자인 시작시간/종료시간/지점번호/도움말/API 인증키 입력 필요
- tm1 : 시작시간 또는 시작일 → 년월일시분을 이어서 씀 (ex. 2023-01-01 10시 = 2301011000)
- tm2 : 종료시간 또는 종료일
- stn : 국내 지역 지점번호 (ex. 지점번호 152 = 울산 지역)
# 데이터 컬럼명 지정 : Column Description 그대로 가져옴
col_name = ["TM","STN","WD","WS","GST_WD","GST_WS","GST_TM"
,"PA","PS","PT","PR","TEMP","TD","HM","PV"
,"RN","RN_DAY","RN_JUN","RN_INT","SD_HR3","SD_DAY","SD_TOT"
,"WC","WP","WW","CA_TOT","CA_MID","CH_MIN"
,"CT","CT_TOP","CT_MID","CT_LOW","VS","SS","SI","ST_GD"
,"TS","TE_005","TE_01","TE_02","TE_03","ST_SEA","WH","BF","IR","IX"]
# 날씨 데이터 function (load_weather)
def load_weather(tm1, tm2, stn):
domain = "https://apihub.kma.go.kr/api/typ01/url/kma_sfctm3.php?"
auth_key = "XXXXXXXXXXXXXXXX" # 부여받은 API Key 입력
params = {'tm1' : tm1,
'tm2' : tm2,
'stn' : stn,
'help' : 0, # 도움말 없음
'authKey' : auth_key}
response = requests.get(domain, params=params, verify=False)
text = response.text
text = text.split("\n")[4:-2]
df = pd.DataFrame(text)[0].str.split(expand=True)
df.columns = col_name
return df
이 코드는 지역번호 108번, 2021년 3월 8일 00시부터 05시까지 발생한 ASOS데이터를 받아오라는 의미이고, 아래와 같이 무사히 실행됨을 확인할 수 있습니다.
load_weather(202103080000, 202103080500, 108)
✅ 변수들 설명(헤더정보)
호출된 API의 출력 변수들의 설명, 즉 헤더정보를 보고 싶을 때는 help
옵션을 조정하면 됩니다.
- help = 0 설정 : 헤더정보 미표출
- help = 1 설정 : 헤더정보 표출
✅ 지상관측 지점정보
stn
은 국내 지점번호이며, tn=152
는 지점번호가 152인 울산 지역에 대한 날씨를 불러오는 코드입니다.
만약 전체 지역을 모두 불러오고 싶다면 stn=''
로 전달하면 되며, 전체 97개 지점에 대한 날씨정보가 모두 return 됩니다.
- 98x6 = 582 rows
load_weather(202303080000, 202303080500, '')
전체 지역이 아니라 특정 지역의 stn 지점번호를 알고 싶을 때는, 지상관측의 가장 마지막 TAB인 지상관측 지점정보를 클릭하여 API 호출을 통해 확인하면 됩니다.
url = "https://apihub.kma.go.kr/api/typ01/url/stn_inf.php"
auth_key = "y1b1RctfSY-W9UXLXzmP0A"
params = {'inf' : 'SFC',
'stn' : '',
'authKey' : auth_key}
response = requests.get(url, params=params, verify=False)
text = response.text
text = text.replace("#","").split("\n")
text = text[1:-2]
for i, l in enumerate(text):
l = l.strip().replace(" ",",").split(',')
l = [i for i in l if i != '']
l = ",".join(l)
text[i] = l
col_name = text[0].split(',')
df_stn = pd.DataFrame(text[2:])[0].str.split(",",expand=True)
df_stn = df_stn.drop(14, axis=1)
df_stn.columns = col_name
df_stn
총 97개의 지역명과 지점번호이 존재하니, 위의 코드를 복사하여 실행시킨 뒤 보고 싶은 지역의 지점번호를 찾아서 날씨 데이터를 불러옵니다.
저의 경우에는 특정 지역들 위주로만 사용해서 지점번호를 외우고 있거나, csv 파일로 저장해서 열람하고 있습니다.
df_stn[df_stn["STN_KO"] == '구미']
✅ 720시간 이상의 데이터 생성 (feat. While Loop문)
이때 주의해야할 점은 데이터를 호출할 때 tm2(종료시간)으로부터 최대 720시간 전까지만 불러올 수 있습니다.
그렇기 때문에 tm1을 21년, tm2를 23년으로 설정하고 데이터를 불러도 tm2 기준으로 720개만 데이터가 호출되는 것을 확인할 수 있습니다.
720시간 이상 기간의 날씨 데이터를 호출하고 싶다면, loop문을 통해 720시간 단위로 기간을 쪼개어 여러번 불러오면 됩니다.
위에서 만든 날씨 데이터 function(load_weather)를 활용하여 2021-03-08 00:00:00부터 2023-05-15 09:00:00까지 구미지역 날씨 데이터를 불러오는 예시 코드는 다음과 같습니다.
dates = pd.date_range('2021-03-08 00:00:00', '2023-05-15 09:00:00', freq = 'H')
dates = [str(d).replace("-","").replace(" ","").replace(":","")[:-2] for d in dates]
df_weather = pd.DataFrame()
d_i = 0
while d_i <= len(dates):
start_time = dates[d_i]
if d_i + 719 >= len(dates):
end_time = dates[-1]
else:
end_time = dates[d_i+719]
d_i += 720
df = load_weather(start_time, end_time, 279)
df_weather = pd.concat([df_weather, df])
df_weather
✅ 데이터 전처리
데이터 전처리는 사실 할 것이 별로 없기에, 간단하게 2가지 정도만 진행하려고 합니다.
- 필요 변수 추출
- 종관기상관측의 경우 총 44개의 기상 요소 변수들(기온, 강수, 기압, 습도 등)이 존재함
- 이때 모든 기상 요소 변수들을 사용하는 것이 아니라 중점적으로 보는 변수 위주로 추출하고자 함
- tm 변수 형태 변경
- 관측시각 변수(tm) 형태는 년월일시분으로 되어 있음
- 센서 데이터와 join하기 위하여 보기좋게 ‘YYYY-MM-DD HH:MM:SS’ 형태로 바꾸려고 함
# tm 변수 형태 변경 - YYYY:MM:DD HH:MM:SS
df_weather['TM'] = df_weather['TM'].map(lambda x: datetime.strptime(x, '%Y%m%d%H%M'))
# 필요 변수 추출 - 시간, 온도, 습도, 기압, 강수량
df_weather[['TM', 'TEMP', 'HM', 'PA', 'RN']]
5️⃣ DB 적재
DB에 새로운 테이블을 생성한다는 가정 하에, Python에서 HANA DB에 연결하여 날씨 데이터를 I/F하는 코드를 작성하였습니다.
csv 파일로도 받을 수 있지만, 보통 생산 및 품질 정보 등을 DB에 적재하여 사용하고 있기 때문에 분석 데이터셋 구성을 용이하기 위하여 DB로 I/F하는 편입니다.
✅ DB 스키마 및 테이블명 지정
우선 DB Schema를 지정해주고, 생성하고자 하는 데이터명을 입력해줍니다.
schema = "스키마명"
tb_nm = "데이터명"
✅ HANA DB 연결
다음으로 사용하고 있는 DB와 연결을 해주면 되는데, 저는 이번 예시에서는 HANA DB로 연결을 하도록 하겠습니다.
from hdbcli import dbapi
conn = dbapi.connect(
address='db ip',
port='port num',
user='id',
password='pw'
)
cursor = conn.cursor()
✅ 테이블 생성
HANA DB에 DB스키마와 테이블 이름을 지정하고 테이블을 생성합니다. 아직 데이터가 안들어있는 상태인 빈깡통(?)인 테이블이라고 생각하면 됩니다.
output_table = df_weather[['TM', 'TEMP', 'HM', 'PA', 'RN']]
val_schema = pd.io.sql.get_schema(output_table, schema=schema, name=tb_nm, con = conn)
val_schema = val_schema.replace("CREATE TABLE", "CREATE COLUMN TABLE").replace("TEXT", "DOUBLE")
cursor.execute(val_schema)
✅ 테이블 생성
DataFrame으로부터 데이터를 읽어서 DB에 Insert 해줍니다.
for i,row in output_table.iterrows():
sql = "INSERT INTO " + schema + "." + tb_nm + " VALUES ( "+ "?" + ", ?"*(len(row)-1) + " ) "
cursor.execute(sql, tuple(row))
위의 모든 과정을 마치면, HANA DB에서 다음과 같이 무사히 데이터가 추가된 것을 확인할 수 있습니다.
Reference
- 기상청 API허브
- [Python] 공공데이터 오픈 API를 활용한 기상청 ASOS 데이터 파싱하기
- 기상자료개방포털 Open-API 활용하기 - 파이썬초보자도 할 수 있다!
- [Pyhon - Crawling] API 활용하여 과거 기상 관측 데이터 불러오기
🔜 Think
기상청에서 제공하는 API허브를 통해