당신은 주제를 찾고 있습니까 “파이썬 데이터 분석 프로젝트 – [1/5] 파이썬 데이터 분석 – 전국 도시 공원 표준 데이터 불러오기, 요약하기“? 다음 카테고리의 웹사이트 https://you.charoenmotorcycles.com 에서 귀하의 모든 질문에 답변해 드립니다: https://you.charoenmotorcycles.com/blog/. 바로 아래에서 답을 찾을 수 있습니다. 작성자 오늘코드todaycode 이(가) 작성한 기사에는 조회수 17,966회 및 좋아요 219개 개의 좋아요가 있습니다.
파이썬 데이터 분석 프로젝트 주제에 대한 동영상 보기
여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!
d여기에서 [1/5] 파이썬 데이터 분석 – 전국 도시 공원 표준 데이터 불러오기, 요약하기 – 파이썬 데이터 분석 프로젝트 주제에 대한 세부정보를 참조하세요
* 전체 강좌 보기 : http://bit.ly/inflearn_todaycode
파이썬 데이터 분석 입문 – 전국 도시공원 표준데이터 분석으로 위경도, 지역정보 활용하기
소스코드 : https://github.com/corazzon/OpenDataWrangling/blob/master/park.ipynb
데이터 출처 : https://www.data.go.kr/dataset/15012890/standard.do
* 전국 도시공원에 대한 분포를 시각화해 봅니다.
* 어떤 공원이 어느 지역에 어떻게 분포되어 있는지를 경도로 표현해 봅니다.
* 실습을 위해 나눔고딕 폰트 설치가 필요합니다. (설치된 다른 폰트를 사용해도 됩니다.)
* 이 노트북에서는 pandas, plotnine을 사용합니다.
👉 페이스북 : https://www.fb.com/todaycode
👉 인스타그램 : https://www.instagram.com/_todaycode/
* 아래 URL과 쿠폰코드로 할인금액으로 수강하실 수 있습니다.
————————————————
모든 유료 강의 쿠폰코드 👉 https://bit.ly/inflearn-today-coupon-code
————————————————
🌱 인프런 📈 증권 데이터 수집과 분석으로 신호와 소음 찾기 🔎 전체 보기 👉 http://bit.ly/inflearn-finace-data ( 쿠폰코드: 3083-a12fb4ddd2d4 )
🌱 인프런 📊 공공데이터로 파이썬 데이터 분석 시작하기 💻 전체 보기 👉 https://bit.ly/inflearn-public-data-eda (쿠폰코드 : 3084-4e27fa1575a4 )
🌱 인프런 📝 단 두 장의 문서로 데이터 분석과 시각화 뽀개기⚡️ 전체 보기 👉 https://bit.ly/inflearn-pandas-tutorial (쿠폰코드 : 3085-6040d593c7e9 )
🌱 인프런 📚 영화리뷰 감정 분석을 통한 파이썬 텍스트 분석과 자연어 처리 👉 https://bit.ly/inflearn-nlp-tutorial
파이썬 데이터 분석 프로젝트 주제에 대한 자세한 내용은 여기를 참조하세요.
Python 데이터분석 프로젝트 – 특이한 개발자
이번포스팅은 Python(파이썬)을 이용한 데이터분석 프로젝트이다. 데이터분석, 데이터시각화를 위한 패키지인 pandas, matplotlib, numpy 위주로 …
Source: odddevloper.tistory.com
Date Published: 6/11/2021
View: 5907
1-1. 파이썬 EDA 탐색적 데이터분석 프로젝트, 마케팅 관점에서 …
파이썬 EDA 데이터분석 팀 프로젝트, 마케팅 관점에서 생각하기 (제주도) – 첫 프로젝트 글 순서 – 1. 파이썬(python) EDA 데이터분석 주제 정하기 2.
Source: 0goodmorning.tistory.com
Date Published: 7/13/2021
View: 7954
파이썬 데이터 분석 실무 – Udemy
주피터 노트북을 활용한 파이썬 코딩. 데이터 시각화 방법을 터득하고 인사이트를 발견하는 방법. 머신러닝 입문으로 더욱 효과적인 데이터 분석 실현 …
Source: www.udemy.com
Date Published: 4/29/2022
View: 1681
04-3. 데이터 전처리 – Python 데이터 분석 실무
모든 데이터 분석 프로젝트에서 데이터 전처리는 반드시 거쳐야 하는 과정이다. 대부분의 데이터 분석가가 좋아하지 않는 과정이지만, 분석 결과/인사이트와 모델 성능 …
Source: wikidocs.net
Date Published: 7/19/2022
View: 7226
추천순 데이터 분석 온라인 강의 | 인프런
데이터 분석 × 데이터 시각화. Pandas MS-Office R Python Excel Tableau Matplotlib Power BI 빅데이터 웹 크롤링. Numpy Seaborn Plotly 지리정보시스템(GIS).
Source: www.inflearn.com
Date Published: 6/1/2021
View: 1364
[프로젝트 중심 데이터 분석 강좌 – Python 기초] 1. 파이썬 설치 …
[프로젝트 중심 데이터 분석 강좌 – Python 기초] 1. 파이썬 설치하기. Wolfy 소신 2020. 11. 14. 06:33. 반응형. 안녕하세요 소신입니다. 데이터 분석을 위한 Python …Source: wolfy.tistory.com
Date Published: 3/21/2022
View: 6885
UNIT 14 numpy를 활용한 나만의 프로젝트 만들기
모두의 데이터 분석 with 파이썬(이하 ‘책’)의 저작권은 송석리, 이현아에게 있습니다. 책의 출판권 및 배타적발행권과 전자책의 배타적전송권은 (주)도서출판 길벗 …
Source: thebook.io
Date Published: 1/20/2022
View: 3404
주제와 관련된 이미지 파이썬 데이터 분석 프로젝트
주제와 관련된 더 많은 사진을 참조하십시오 [1/5] 파이썬 데이터 분석 – 전국 도시 공원 표준 데이터 불러오기, 요약하기. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.
주제에 대한 기사 평가 파이썬 데이터 분석 프로젝트
- Author: 오늘코드todaycode
- Views: 조회수 17,966회
- Likes: 좋아요 219개
- Date Published: 2018. 12. 20.
- Video Url link: https://www.youtube.com/watch?v=uJ6QO6jLBWA
1-1. 파이썬 EDA 탐색적 데이터분석 프로젝트, 마케팅 관점에서 생각하기
파이썬 EDA 데이터분석 팀 프로젝트, 마케팅 관점에서 생각하기 (제주도)
– 첫 프로젝트 글 순서 –
1. 파이썬(python) EDA 데이터분석 주제 정하기
2. 실패한 여기어때 후기 웹스크래핑(web scraping)
3. 데이터 수집 방법 & 데이터 추출, 정제
4. 판다스(pandas) 데이터 처리 / Matplotlib, Json 시각화
5. 정리
3월 중순에 교육을 시작해서 단 몇 주만에 파이썬을 배웠다. 6개월 뒤에 이 글을 다시 보게 되면 참 답답하게 코딩을 했구나라고 생각을 했으면 좋겠다는 심정으로.. 열심히 코딩을 할 생각이다.
* 코딩 부분은 다음 편부터 나옵니다. 일련의 과정이니 참고만 해주세요
EDA 란?
데이터를 수집하고 수집된 데이터를 다양한 각도에서 관찰하고 이해하는 과정으로 보면 된다. 데이터를 분석하기 전에 그래프나 통계적인(matplotlip, seaborn) 방법으로 시각화해, 더욱 직관적으로 데이터를 처리해서 분석한다.
출처 : blog.naver.com/hrd04/221135900560
이렇게 복잡한 과정을 거쳐야할 수도 있지만… 간단하게 보면
데이터 수집 => 시각화 탐색 => 패턴 도출 => 인사이트 발견 순으로 보면 좀 할만하네?라고 생각이 든다.
주제 선정
모르면 일단 친구한테 물어보는게 마음 편하다. 생각보다 간단한 주제를 해서 별거 아닐거라고 생각했는데 큰 오산…
[마케팅적인 관점으로 접근]1. 검색수, 관심, 날씨 등의 키워드 분석으로 6개월 후에 팔릴 제품 예상
– 날씨는 기상청 공공데이터, 검색 수는 구글 트렌드, 네이버 datalab으로 어느 정도 데이터를 뽑을 수 있지만, 개인의 관심과 개인이 구매했던 제품들을 보려면 개인 정보가 필요한데 데이터를 구하기 힘들 것으로 판단해서 포기
2. 드라마에 나오는 제품(협찬)이 실제 검색량과 구매에 얼마나 영향을 미치는지
– 커뮤니티에 홍보글들이 올라와서, 조회수 당 실질적으로 구매에 얼마나 많은 영향을 미칠까.. 인플루언서 마케팅의 효율이 얼마나 될지를 객관적인 데이터 자료로 생각을 하려고 했지만, 이것 또한 구매까지 파악이 안 돼서 pass
3. 네이버 view 상위 검색 분석
– 네이버에도 알고리즘이 있다고 하지만 어느정도 상관관계가 있을 수 있으니 for 구문으로 지역별 + 맛집 돌려서 상위 5~10개의 글에서 키워드, 그림 개수, 영상 길이, 블로그 전체 글 수 등을 웹 스크래핑으로 통계를 내서 진행하려고 했으나… 말로는 쉽지 실제 하기는 어려웠다.
[팀 회의]– 지역별, 성별, 연령 등으로 정리 할 수 있는 코로나 감염자 현황
– 서울 지하철 역 별로 승/하차 인원 및 현재 열차의 위치
– 서귀포시 와 제주시로 나누어 토지 비교 / 상업용 비교
– 연도별 토지값 변동, 각 동별로 차이가 있는가
– 동일 생활권내 각동별로 같은가
[EDA 과정]간단한 주제 밖에 나오지 않아서 ‘ 제주도 예비 창업자를 위한 업종 서비스 추천 ‘이라는 EDA 팀 프로젝트 주제를 정했다 => 데이터를 찾아보니 너무 주제가 광범위해서, 숙박업으로 좁혔다(숙박업 서비스 개선을 위한 방안) => 그래도 데이터가 많은 것 같아서 에어비앤비, 야놀자, 여기어때 등의 숙박업체 중 탑 2 (야놀자, 여기어때 점유율이 1, 2위라는 걸 처음 알았음)에서도 제주시, 게스트하우스로 줄여나갔다.
* 머릿속 생각은 숙박업체 등에서 좋은 평점, 또는 많이 방문하는 업체들의 리스트를 뽑는다. 어떤 점에서 방문을 하는지 주위 상권 분석을 한다. 추가로 있으면 좋을 서비스나 경쟁력 갖추기 위한 것들을 제시한다. 제주도뿐만 아니라 타 여행도시랑 비교해본다.
오만했다. 처음 프로젝트면 욕심을 버리자
다음 편은 후기를 웹 스크래핑으로 뽑아오기
파이썬 데이터 분석 실무
“어제보다 성장하겠습니다. 그리고, 어제보다 성장하려는 사람을 돕겠습니다.”
마소캠퍼스의 진심과 소망을 담은 Actionable Content로,
2013년부터 온오프라인으로 함께해 온 누적 강의 1억시간!
이 소중한 경험과 시간은 언제나 마소캠퍼스와 수강생 모두의 성장의 원천입니다.
–
파이썬과 데이터 분석, 왜 중요할까?
개발자들 사이에서 가장 사랑받는 프로그래밍 언어, 파이썬!
파이썬은 단순히 프로그램 개발에만 쓰이는 것이 아닌 데이터 분석에도 유용하게 활용되고 있습니다.
데이터 분석은 직업에 상관없이 누구에게나 필요한 기술입니다.
그렇다면 우리는 왜 파이썬을 통한 데이터 분석을 학습해야 할까요?
1. 파이썬을 활용하면 대량의 데이터를 빠르게 처리할 수 있습니다.
2. 반복되는 부분의 프로그래밍 처리가 가능합니다.
3. 머신러닝, 딥러닝 등과 연계하여 다양한 분석, 예측이 가능합니다.
파이썬을 활용하면 엑셀로는 처리하기 어려운 범위까지 데이터 분석 및 예측이 가능합니다.
따라서 본 강의는 파이썬을 활용한 데이터 분석에 초점을 맞추어 강의를 진행합니다.
NumPy, Pandas를 활용한 데이터 분석 실무를 직접 경험하고 프로그래밍 및 데이터 분석 능력자가 되어보세요!
파이썬 기초 지식은 알고 있어도 현업에서 어떻게 활용해야 할지 모르겠다면?
파이썬의 기본 문법과 다양한 사례를 통해 어느 정도 파이썬을 손에 익히신 분들은,
<파이썬 데이터 분석 실무> 강의를 통해 본격적인 데이터 분석 실습을 진행해 보실 수 있습니다!
1. NumPy와 Pandas 활용을 통한 실무 적용력 업그레이드
고급 데이터 분석 패키지 NumPy와 Pandas를 활용하는 다양한 예제를 반복 학습하고
직접 만든 코드를 실무에 바로 적용해 보실 수 있습니다.
2. 파이썬을 활용한 데이터 분석 A to Z! 데이터 능력 마스터
데이터 분석 패키지와 데이터 시각화 패키지를 학습하고, 강의 후반부에는 머신러닝까지 입문하며
데이터 전처리 능력, 데이터 가공 능력, 데이터 시각화 능력, 데이터 기반 의사결정 능력을 확보하실 수 있습니다.
3. 현업에서 유용한 내용만을 압축! 학습 효율성 극대화
쓸 데 없는 내용은 덜어내고 현업에서 마주칠 수 있는 예제와 실습을 통해 진짜 필요한 내용만을 담았습니다.
소중한 여러분들의 시간을 위한 Time Saving Curriculum이자 배우면 바로 쓸 수 있는 Actionable Content입니다.
본 강의는 어렵기만 하고 무용지물인 강의가 절대 아닙니다!
수강생들의 눈높이와 활용력에 초점을 맞춘 본 강의를 학습해보세요.
어렵게만 느껴지던 파이썬과 데이터 분석이 흥미롭게 느껴지실 겁니다.
*본 과정은 MSIQ 데이터사이언스마스터/디지털마케팅마스터 자격을 보유한 마소캠퍼스 콘텐츠랩의 자체 개발 평가 문항이 포함되어 있습니다.[민간자격 등록번호 : 2020-005943(데이터사이언스)/2020-005944(디지털마케팅)]
–
[ 강 사 소 개 ]김 진 숙
現 마소캠퍼스 수석 교수
컴퓨터시스템 공학 석사
김진숙 교수는 마소캠퍼스에서 빅데이터 부분 수석 교수로 빅데이터(R, 파이썬), HTML5/CSS3, JQueryMobile, 스크래치, 앱인벤터, IoT 등의 최신 IT 관련 기술 과정들까지 다양한 기업과 기관의 수강생들을 대상으로 열정 넘치는 강의를 이어가고 있습니다. 김진숙 교수는 스마트팜 IoT 프로젝트, 카 셰어링 앱 프로젝트 등 다수 프로젝트 지도 경력까지 겸비한 전문가입니다.
–
04-3. 데이터 전처리
모든 데이터 분석 프로젝트에서 데이터 전처리는 반드시 거쳐야 하는 과정이다. 대부분의 데이터 분석가가 좋아하지 않는 과정이지만, 분석 결과/인사이트와 모델 성능에 직접적인 영향을 미치는 과정이기 때문에 중요하게 다루어지는 과정이다. 한 설문조사에 의하면, 분석가의 80% 시간을 데이터 수집 및 전처리에 사용한다고 하니, 얼마나 중요한 과정인지 짐작할 수 있다. 물론 지루하고 반복 작업의 연속이기 때문에 시간이 많이 들어가는 측면도 있을 것이다.
Source: Forbes
지난 시간에 간단히 언급한 대로, 실무에 사용되는 데이터셋은 바로 분석이 불가능할 정도로 지저분(messy)하다. 분석이 가능한 상태로 만들기 위해 아래와 같은 전처리 방식이 자주 사용된다. 모든 강의에 걸쳐서 전처리 단계는 중요하게 그리고 반복적으로 다루어질 예정이다.
데이터 불러오기 및 인덱스 지정
데이터를 읽어 오고 가장 먼저 할일은 첫 행 몇개와 마지막 행을 살펴보는 것이다. 그리고 유니크 식별값을 인덱스로 지정하고 dataframe 각 컬럼의 타입과 결측치 등을 파악하는 것이다.
# 데이터프레임 읽고 초반, 후반 행 확인하기 df = pd.read_csv(“testset.csv”, index_col=0) df.head() df.tail() # 인덱스 지정 df.set_index(“iduser”, inplace=True) # 컬럼별 type 확인 및 결측치 확인 df.info() df.isnull().sum()
결측치 처리
결측치 처리는 1) 결측치 사례 제거 2) 수치형의 경우 평균이나 중앙치로 대체(imputation)하거나 범주형인 경우 mode 값으로 대체 3) 간단한 예측 모델로 대체하는 방식이 일반적으로 이용된다. 가장 쉬운 방법은 Null이 포함 행 혹은 일부 행을 제거하는 것이다. 수집된 사례(observation)이 많다면 이 방법을 사용하는 것이 가능하다. 만약 샘플수가 충분하지 않을 경우, Pandas의 fillna() 명령어로 Null 값을 채우는 것이 가능하다. 연속형인 경우 Mean이나 Median을 이용하고 명목형인 경우 Mode(최빈치)나 예측 모형을 통해 Null 값을 대체할 수 있다.
데이터셋을 읽었다면, Missing Value 파악을 위해 df.info() 가장 처음에 이용하는 것을 추천한다. 만약 np.nan으로 적절히 missing value로 불러왔다면 info() 이용 가능하다. 만약 ”, ‘ ‘ 이런식의 공백이나 다른 방식으로 처리되어 있다면, 모두 repalce 처리해줘야 한다. info()를 실행했을 때, 누가봐도 float or int 인데 object(string)으로 되어 있다면 이런 사레가 포함될 가능성이 높다.
결측치를 처리할 때 고려할 점
결측치를 처리할 경우에도 도메인 지식은 유용하게 사용된다. 인적, 기계적 원인임이 판명되면, 협업자와 지속적으로 노력해 결측치를 사전에 발생하지 않도록 조치하는 것이 좋다. 수치형인 경우 의미상으로 0으로 메꾸는 것이 맞는지 아니면 평균이나 중앙치가 맞는지 등은 데이터에 대한 배경지식이 있는 경우, 보다 적절한 의사결정을 할 수 있다.
예를 들어 viewCount가 1이상인데, edit, export가 missing인 경우 (도메인 지식을 통해) 0으로 메꾸는 것이 가능하다. View 가 다른 행동에 선행하는 개념이기 때문에 위와 같은 의사결정이 가능하다.
NA 와 Null 차이점 (R에서만 구분되는 개념, 파이썬에서는 numpy의 NaN만 이용, 가끔 pure python에서 None을 볼 수 있음, None = empty) NA: Not Available (does not exist, missing) Null: empty(null) object NaN: Not a Number (python) reference: https://www.r-bloggers.com/r-na-vs-null/
특히 숫자 0과 null 과 같은 결측치는 완전히 다른 개념이니 유의해야 한다. 만약 target(group)에 결측치가 있다면 imputation이 아닌 drop 으로 처리하도록 한다.
0: -1과 1 사이의 가운데 숫자(정수)
null: 미지의 값
# 결측치 부분을 메꾸는 방법 test[‘viewCount’] = test[‘viewCount’].fillna(test.viewCount.mean()) # 만약 결측치가 문자열 스페이스(‘ ‘)로 되어 있다면, np.nan으로 바꾸어 Pandas 라이브러리가 인식할수 있도록 변환 test.viewCount = test.viewCount.replace(”, np.nan) # 결측치를 제거하는 방법 test.dropna(how=’all’).head() # 한 행이 모두 missing value이면 제거 test.dropna(how=’any’).head() # 한 행에서 하나라도 missing value가 있으면 제거
이상치 처리
일반적으로 1) 표준점수로 변환 후 -3 이하 및 +3 제거 2) IQR 방식 3) 도메인 지식 이용하거나 Binning 처리하는 방식이 이용된다. 표준점수 이용할 경우 평균이 0, 표준편차가 1인 분포로 변환한후 +3 이상이거나 -3 이하인 경우 극단치로 처리한다.
Source: Wikipedia
# 표준점수 기반 예제 코드 def std_based_outlier(df): for i in range(0, len(df.iloc[1])): df.iloc[:,i] = df.iloc[:,i].replace(0, np.NaN) # optional df = df[~(np.abs(df.iloc[:,i] – df.iloc[:,i].mean()) > (3*df.iloc[:,i].std()))].fillna(0)
IQR 방식은 75% percentile + 1.5 * IQR 이상이거나 25 percentile – 1.5 * IQR 이하인 경우 극단치로 처리하는 방식이다. 이해하기 쉽고 적용하기 쉬운 편이지만, 경우에 따라 너무 많은 사례들이 극단치로 고려되는 경우가 있다.
Source: statisticshowto
# IQR 기반 예제 코드 def outliers_iqr(ys): quartile_1, quartile_3 = np.percentile(ys, [25, 75]) iqr = quartile_3 – quartile_1 lower_bound = quartile_1 – (iqr * 1.5) upper_bound = quartile_3 + (iqr * 1.5) return np.where((ys > upper_bound) | (ys < lower_bound)) 데이터 분포 변환 대부분의 모델은 변수가 특정 분포를 따른다는 가정을 기반으로 한다. 예를 들어 선형 모델의 경우, 설명 및 종속변수 모두가 정규분포와 유사할 경우 성능이 높아지는 것으로 알려져 있다. 자주 쓰이는 방법은 Log, Exp, Sqrt 등 함수를 이용해 데이터 분포를 변환하는 것이다. import math from sklearn import preprocessing # 특정 변수에만 함수 적용 df['X_log'] = preprocessing.scale(np.log(df['X']+1)) # 로그 df['X_sqrt'] = preprocessing.scale(np.sqrt(df['X']+1)) # 제곱근 # 데이터 프레임 전체에 함수 적용 (단, 숫자형 변수만 있어야 함) df_log = df.apply(lambda x: np.log(x+1)) 위 방법 외에도 분포의 특성에 따라 제곱, 자연로그, 지수 등 다양한 함수가 사용될 수 있다. 가이드는 아래와 같다. left_distribution: X^3 mild_left: X^2 mild_right: sqrt(X) right: ln(X) servere right: 1/X 데이터 단위 변환 데이터의 스케일(측정단위)이 다를 경우 특히 거리를 기반으로 분류하는 모델(KNN 등)에 부정적인 영향을 미치므로, 스케일링을 통해 단위를 일정하게 맞추는 작업을 진행해야 한다. 아래 방식이 주로 스케일링을 위해 쓰이는 방법이다. 대부분의 통계 분석 방법이 정규성 가정을 기반으로 하므로 완벽하지 않더라도 최대한 정규분포로 변환하는 노력이 필요하다. Scaling: 평균이 0, 분산이 1인 분포로 변환 MinMax Scaling: 특정 범위 (예, 0~1)로 모든 데이터를 변환 Box-Cox: 여러 k 값중 가장 작은 SSE 선택 Robust_scale: median, interquartile range 사용(outlier 영향 최소화)
Python 기초] 1. 파이썬 설치하기
반응형
안녕하세요 소신입니다.
데이터 분석을 위한 Python 기초편입니다.
처음은 아나콘다를 설치하고 환경을 설정하는것부터 시작하겠습니다.
ㅁ 아나콘다 설치
파이썬 기본 설정과 분석 기본 패키지를 받기 위해 아나콘다를 설치합니다.
Download 버튼을 클릭해줍니다.
각자의 환경에 맞게 설치해주시면 되는데 글을 작성하는 11월 14일 기준 최신버전은 3.8 버전입니다.
ㅁ 아나콘다 설치 과정
아나콘다 설치 경로는 안바꾸시는게 제일 좋습니다.
만약에 바꾸신다해도 영어로된 경로로 바꿔주세요.
데이터 분석을 위한 패키지 설치나 다양한 오류 발생은 초기 설정이 잘못되었을 경우가 대부분입니다.
PATH 환경변수에 Anaconda3를 추가해줍니다.
그 이후엔 설치를 위한 과정들이니 스킵하시면 됩니다.
설치가되면 다음과같이 폴더가 생성된것을 확인할 수 있습니다.
커맨드 창을 열어서 잘 설치되었는지 확인해봅니다.
Windows – 시작버튼 + R → cmd 입력 후 엔터
Linux – Terminal 실행
python 입력 후 엔터 !
print(“Hello, World”) 입력 후 엔터 !
개발환경 세팅은 Hello World를 출력하는 것부터 !
ㅁ Jupyter Notebook 실행
터미널에서도 실행할 수 있지만, 쉽고 빠른 실행을 위해
시작메뉴에서 Jupyter Notebook을 실행해줍니다 !
Jupyter 환경을 위한 기본 세팅이 되고, Jupyter Notebook이 실행됩니다.
※ Jupyter Notebook을 사용하실 때에는 이 화면을 절대 닫으시면 안됩니다.
안되는 이유가 뭔데요? → 닫아보세요. 실험해보는 모습 좋습니다.
파일 실행부터 폴더 생성 등 아무 작업도 할 수 없게됩니다.
새 파이썬3 노트북을 생성합니다.
print(“hello, world”) 를 입력하고 Ctrl + Enter !
정상적으로 출력이 되었습니다 !
Jupyter Notebook에서는 실행할 수 있는 박스 하나를 Cell이라고 부릅니다.
Cell을 실행할 때에는
Ctrl + Enter (커서 현재 셀)
Shift + Enter (커서 다음 셀)가 있습니다.
고생하셨습니다.
다음 시간에는 파이썬 기초 문법을 배워보겠습니다.
반응형
모두의 데이터 분석 with 파이썬: UNIT 14 numpy를 활용한 나만의 프로젝트 만들기
UNIT 14
numpy를 활용한 나만의 프로젝트 만들기
◉ 실습 데이터 Unit14/unit14-01.ipynb, age.csv
지난 시간에 우리는 numpy 라이브러리를 사용하는 방법을 배웠습니다. 이번 시간에는 numpy를 활용하여 ‘우리 동네 인구 구조와 가장 비슷한 곳을 찾는’ 간단한 프로젝트를 만들겠습니다. 특히 이번 프로젝트는 여러분이 이 책을 다 읽고 난 후 여러분만의 데이터 프로젝트를 만드는 데 도움이 되도록, 프로젝트를 점진적으로 완성하는 과정을 보여주려고 합니다. 이번 프로젝트를 진행하면서 나만의 프로젝트에 대한 구상을 함께 해보길 바랍니다.
키워드에 대한 정보 파이썬 데이터 분석 프로젝트
다음은 Bing에서 파이썬 데이터 분석 프로젝트 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.
이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!
사람들이 주제에 대해 자주 검색하는 키워드 [1/5] 파이썬 데이터 분석 – 전국 도시 공원 표준 데이터 불러오기, 요약하기
- 데이터분석
- EDA
- 데이터 시각화
- 파이썬
- Python
- 공공데이터
- 판다스
- 넘파이
- Pandas
- NumPy
- 파이썬데이터시각화
- Matplotlib
YouTube에서 파이썬 데이터 분석 프로젝트 주제의 다른 동영상 보기
주제에 대한 기사를 시청해 주셔서 감사합니다 [1/5] 파이썬 데이터 분석 – 전국 도시 공원 표준 데이터 불러오기, 요약하기 | 파이썬 데이터 분석 프로젝트, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.