728x90

- scalar : 크기

- vector : 크기 + 방향, 시작점에 상관없이 크기와 방향이 같으면 같은벡터

 

- vector 길이

 

- unit vector : 길이가 1인 벡터

- linear independence : a벡터에 상수배를 해서 b벡터를 못만들면 선형독립, 만들수잇으면 선형독립이 아님

 

 

-span : V가 linear independence일 때, 각 벡터가 n개의 components를 가지면

          span(V) = R^n

 

 

- 밑에의 조건을 만족하면 V는 R^n의 부분공간임

 

- 내적 : 두 벡터의곱, 아래의 공식이 성립됨.

 

- 외적

-Null space : 행렬A * 벡터x = 0을 만족하는 모든 벡터x

 

728x90

답과 순서는 정확하지 않고

인터넷에 올라와있는 글들과 댓글들, 제 기억을 토대로 정리했습니다.

 

빠진 문제도 있으니 혹시 답이 잘못됫거나 아시는분은 댓글로 달아주시면 감사하겠습니다!

 

 

 

1과목

1. 4 - DIKW가 아닌거

2. 4 - 사회기반 ~ 의학쪽은 사용을 못한다 

3.연관분석 -콜라를 산사람이 무엇을 살것이다

4.????????

5. 가치창출  -  빅데이터 최종목적

6. 동의에서 책임 사생활침해

7.1 OLAP- 설명 틀린거 OLAP는 다차원적 어쩌구, BI도잇엇음보기에

8. 1번 아나콘다 -  딥러닝이 아닌거

1.정성적 데이터  정량적말고 문자로 나타낸 데이터

2.빅데이터?비정형데이터?

 

2과목

1. 프레이밍,고정관념 기업의 합리적인 의사결정을 가로막는 요소

2. value - ROI요소중 투자비용요소가 아닌 것

3. insight – 분석방법을아나 대상을 모를때

4. 2번 모델적용성 평가 – crisp-dm의 모델링 단계가 아닌 것

5. 분석가의 상상력 어쩌구

6. 분석 기법 있는거 -  분석 업무영역에 해당되지 않는 것

7. 2- pool나오는문제

8. 맞는거 고르는 문제 보기중 수명주기관리보다 품질관리가 중요하다는 틀림!

1. 과제수행

2. 워크플로우, 표준화개선

 

3과목

1. 틀린것 - 단계별방법에 따른 결과는 전진선택법과 후진제거법 결과와 같다

2.36.8% - (1/1-d)^d d가 클 때 확률? .

3.books – 후진제거법에 따라 제거해야하는 변수

4. 주성분분석에서 틀린거 – comp1이 커지면 분산설명률이 낮아진다 틀림

5. 시계열순서를 바르게 나열한 것은?

   시계열 그리기 요인파악 잔차영향분석 잔차파악 요인 재반영

6. 루트50 – 유클리드 거리 구하기

7. 0.4 - F1

8. 귀무가설에 관한 내용으로 틀린 것 -  검정력

9. 4번 척도문제 비율척도는 0이 존재

10. 와드연결법 - 거리측정방법

11. pam - k-means문제해결방법

12. 3 83커피우유 향상도 구하는 문제

13. 재현율 실제값이 1중 예측값이 1인 것

14. 다음중 틀린거 - 모수가 반드시 신뢰구간에 포함되어야 한다는 틀림

15. 등분산성 - 잔차의산점도그래프 나온문제

16. 1.7 - E(x)구하는문제

17. 다음중 틀린거 학습데이터에 민감하게 반응하면 과대적합이 발생하지 않는다는 틀림

18. 데이터마이닝 - 새로운 규칙을 발견하는 것

19. 순수도(purity)다음중 아닌 것

20. 분류 문제기억x

21. ?????????

22. ?????????

23. ???????

24. ???????????/

1. EM알고리즘

2. 5 - 전화하기전 6/100 전화후 30/100일 때 lift?

3. 68.4% - 주성분분석에서 두개 변사까지의 분산 합

4. 25% - quantile 3/4구간보다 큰 자료의 비율은?

5. 최소제곱추정량 - 추정량중 뭐의 제곱을 통해 어쩌구

6. ROC그래프 - x를 민감도? y를 특이도?로 놓고 그린 그래프

 

'기타' 카테고리의 다른 글

상해   (0) 2018.10.30
서버 정보노출 막기  (0) 2018.07.26
728x90

05.의사결정트리(Decision Tree) in R (2) 



iris 데이터 셋을 이용하여, Training Set과 Test Set을 생성한 뒤, Training Set으로 분류모델을 생성하고,  Test Set을 이용하여 분류모델을 평가 해보겠습니다.


먼저 전체 소스입니다.



다음은 iris_ctree결과입니다.

결과를 보시면 Species결정에 Petal.Length와 Petal.Width가 중요한 변수라는걸 알 수 있습니다.




다음은 Iris_ctree를 시각화한 그림입니다.

 

다음은 stats패키지에서 제공하는 predict()함수로 정확도를 구하는 방법입니다.

pred <- predict(iris_ctree,Test_set) 를 통하여 예측치를 구한뒤

table(pred,Test_set$Species)로 혼돈 매트릭스를 생성한뒤 정확도를 계산합니다.

저의 경우에는 97.8%의 정확도가 나왔으며, sample에 따라 결과의 차이는 약간 있을수 있습니다.

set.seed()를 사용하면 매번 동일결과를 얻을 수 있습니다. 



728x90

04.의사결정트리(Decision Tree)  in R


- 의사결정트리(Decision Tree) 방식은 나무구조 형태로 분류결과를 도출해내는 방식으로, 입력 변수 중에서 가장 영향력이 있는 변수를 기준   으로 이진 분류하여 분류결과를 나무 구조 형태로 시각화를 해줍니다..

- 비교적 모델 생성이 쉽고, 단순하지만 명료한 결과를 제공하기 때문에 의사결정의 자료로 가장 많이 사용하는 지도학습 모델입니다.




다음은 R의 party패키지의 ctree()함수로 의사결정트리를 생성하는 방법입니다.


먼저 소스코드입니다.



다음은 air_ctree의 결과입니다.

결과를 보면 온도를 결정하는 1순위가 Ozone이고 2순위가 Wind라는것을 알수있으며, Solar.R은  영향을 안 미치는것을 볼수 있습니다.

* 은 마지막 노드라는 것을 의미합니다.



다음은 분류분석 결과를 시각화 한 모양입니다.





+ Recent posts