남은 문제 : 36
문제 1375
비계층적 군집 방법의 기법인 k-means Clustering의 경우 이상값(Outlier)에 민감하여 군집 경계의 설정이 어렵다는 단점이 존재한다. 이러한 단점을 극복하기 위해 등장한 비계층적 군집 방법으로 가장 적절한 것은?
보기
1.PAM(Partitioning Around Medoids)
2.혼합 분포 군집(Mixture Distribution Clustering)
3.Density based Clustering
4.Fuzzy Clustering
정답
1
해시
태그
lADsP 완전 정복l 혼합분포군집
bYvk5sqN0MY
00:06
: 혼합 분포 군집이란 게 있습니다.
00:09
: 혼합 분포 군집 개념을 읽어보고 어떤 건지, 어떤 구조로 되어 있는지 알아보도록 하겠습니다.
00:18
: 혼합 분포 군집 같은 경우는 모형 기반의 군집 방법이에요.
00:23
: 데이터가 k개의 모수적 모형의 가중합으로 표현되는 모집단 모형으로부터 나왔다는 가정하에, 모수와 함께 가중치를 자료로부터 추정하는 방법을 사용한다. 라고 표현을 합니다.
00:40
: 이렇게만 보면 이해가 잘 안 돼요. 다음 페이지에 있는 그림을 보고 이해를 해보도록 할게요.
00:50
: 위에 a라는 그림과 b라는 그림이 있습니다.
00:53
: b라는 그림을 보면 데이터가 b처럼 분포를 하고 있어요.
01:01
: b처럼 분포하고 있는데, 데이터가 6개의 덩어리로 밀집되어 있는 것을 확인하실 수 있을 거예요.
01:14
: 6개의 군집으로 정한다고 판단을 했는데, 6개의 군집을 위에서 봤을 때는 이런 식으로 보이지만,
01:25
: 데이터 자체를 옆에서 봤을 때, a와 같은 형태로 띄는 것을 확인 할 수가 있었다. 라고 표현할 수가 있어요.
01:34
: a라는 그림을 보면 정규분포가 여러 가지 형태로 나타나고 있다. 라고 해석을 할 수도 있고, 쌍봉 분포가 나올 수 있다. 로도 해석을 하실 수 있을 거예요.
01:47
: 자료의 형태가 다봉형을 띄므로 단일 분포로는 적합하지 않지만, 대략적으로 3개의 정규분포가 결합된 형태로 설명될 수도 있다. 라고 생각을 하실 수 있을 겁니다.
02:00
: a 그림을 보면 분포들이 정규분포로 보이고, 큰 것도 있고, 작은 것도 있다.
02:07
: 이런 특징이 보이는 것을 확인 할 수 있을 거예요.
02:10
: 옆에서 보니까 몇 개의 분포로 이루어져 있는 것으로 확인을 할 수가 있고,
02:15
: 이 분포에 대해서 각각의 데이터가 어떤 분포에서 나와서 묶여져 있는지를 확인을 할 수 있습니다.
02:24
: 이 그림에 6개의 군집이 모두 정규분포라고 가정을 하면, 정규분포를 따르는 6개의 분포가 퍼져있는 형태가 됩니다.
02:34
: 어떤 정규분포는 낮고, 어떤 정규분포는 높게 나타나고 이런 것들을, 그림을 통해서 확인하실 수 있을 거예요.
02:45
: 뭉쳐져 있는 데이터들이 어떤 분포를 따르는지를 확인해야 합니다.
02:52
: 뭉쳐져 있는 데이터들이 어떤 분포의 모수인 평균과 표준편차를 구해야 되겠죠.
03:00
: 그래서 이 분포가 정규분포인지 어떤 분포인지 잘 몰라요.
03:03
: 일반적으로 정규분포라고 표현을 하지만, 어떤 분포인지 모르기 때문에 군집들에 대해 모수의 평균 표준편차를 구할 거예요.
03:16
: 뮤와 표준편차(시그마) 이런 값들을 구해야 될 겁니다.
03:20
: 편차를 찾아가고 이 중, 어디가 가중치가 높은지도 찾아내 보면 어느 점이 어느 군집에 속해져 있는지도 알 수 있을 겁니다.
03:30
: 점을 찾았을 때, 이 점이 이 군집인지, 아니면 이 군집인지 확인 해 볼 수 있을 거예요.
03:36
: 각각 군집마다 평균과 편차를 구하고요.
03:39
: 이 점을 통해서 이 점이 이 군집에 통하는지, 이 군집에 포함되는지 이런 것들을 확인 해 볼 수 있을 겁니다.
03:49
: 이렇게 나타난 게 혼합 분포 군집이다. 라고 할 수가 있어요.
03:57
: 모형 기반의 군집모델이란 뜻은 정규분포 등의 분포를 따르는 모델을 말을 합니다.
04:04
: 그래서 모형 기반 군집 방법이며 데이터가 k개의 모수적 모형에 따라서 가중치와 모수들을 찾아내서 군집을 찾아나가는 방식을 혼합 분포 군집이 된다.
04:21
: 가정하에서 모수와 함께 가중치를 자료로부터 추정하는 방법, 이게 혼합 분포 군집이다. 라고 이해를 하시면 됩니다.
04:32
: k개의 각 모형은 군집을 의미합니다. 각 데이터는 추정된 k개의 모형 중 어느 모형으로부터 나왔을 확률이 높은지에 따라서 군집을 분류하게 됩니다.
04:50
: 흔히 혼합 모형에서의 모수와 가중치의 추정을 EM 알고리즘이란 것을 사용을 한다. 라고 합니다.
05:00
: EM 알고리즘을 사용해서 이런 것들을 찾아 나간다. 라고 기억을 하시면 돼요.
05:06
: EM 알고리즘에 대해서는 별표 치고, EM 알고리즘 같은 경우는 개념을 물어보는 문제가 한 번씩 나와요.
05:14
: 자세한 것에 대해서 물어보는 게 아니라, 혼합 분포 군집에서 사용하는 알고리즘이 무엇이냐. 라고 물어봤을 때, EM 알고리즘이라고 설명해 주실 수 있으면 됩니다.
05:24
: EM 알고리즘에 대해서는 자세한 내용보다는 시험에 나올 수 있다.
05:28
: EM 알고리즘 같은 경우는 혼합 분포 군집에서 사용이 된다. 라는 점 반드시 기억하시기 바랍니다.
05:36
: 이렇게 혼합 분포 군집을 하는데, 마지막으로 설명을 드리면 혼합 분포 군집 같은 경우는 반드시 정규분포로 제한할 필요는 없어요.
05:47
: 이런 군집들이 정규분포일 수도 있고, 다른 분포일 수도 있다. 라는 점 기억을 하시면 돼요.
05:55
: 반드시 정규분포면은 그 모형의 분포를 찾는데 어려움이 있을 수 있기 때문에, 제한을 할 필요는 따로 없다. 라는 점 기억을 해 주시기를 바랍니다.
20:00
:
00:06
~
02:24
1
2
3
검수 상태 :
불통
통과
불통
최종불통
lADsP 완전 정복l SOM_2
xK-Dugy84yc
00:07
: 첫 번째 데이터가 연결되어 이쪽 노드로 들어오게 될 거예요.
00:16
: SOM이란 것도 군집분석이기 때문에 거리를 구해야 될 거예요. 유클리드 거리를 통해서 구해 볼 건데,
00:23
: 첫 번째 데이터가 연결돼서 첫 번째 노드 들어오게 되면, 각각의 노드에서, 웨이트 기준으로 선형결합에 의해 거리가 계산됩니다.
00:33
: 그래서 첫 번째 노드와 첫 번째 데이터가, 그리고 첫 번째 데이터, 두 번째 데이터에 레코드. 그다음에 두 번째 노드와 첫 번째 데이터의 레코드. 이런 식으로 거리가 계산될 겁니다.
00:47
: 첫 번째 데이터와 첫 번째 노드, 첫 번째 데이터와 두 번째 노드, 세 번째. 이런 식으로. 아니면 두 번째 노드와 첫 번째. 이런 식으로 각각 거리가 계산될 겁니다.
00:59
: 오른쪽의 거리가 1.2, 0.8 이런 식으로 나올 거예요. 그렇게 봤을 때, 0.4라고, 노드 3이 가장 거리가 가깝다고 표현을 할 수 있어요.
01:12
: 노드 3이 거리가 가장 가까운데, 이것을 Best Match Unit. BMU라 표현합니다.
01:25
: 그래서 첫 번째 레코드와 가장 가까운 유닛의 노드는 3이다. 라고 합니다.
01:32
: 여기 나와 있는 것들은 첫 번째 레코드와 비교를 했을 때, 가장 가까운 노드는 3이다. 라고 하기 때문에, BMU는 3이다. 라고 할 수 있고요.
01:42
: BMU라는 개념은 반드시 기억해 주세요. 시험에 직접 적거나, 단답이나. 아니면 개념을 물어보는 시험 문제가 몇 번이나 나왔습니다.
01:52
: SOM에서 가장 가까운 거리를 BMU라 표현한다. 라는 점 기억해 주시기 바랍니다.
02:00
: 첫 번째 레코드에 대해서는 이렇게 구해보고, 각 레코드마다도 BMU가 계산이 될 겁니다.
02:07
: 한 번 만에 계산되는 게 아니라, 한번 계산을 하면. 그림을 보고 설명을 드리면, 저희가 가진 데이터가 보라색 형태로 분포하고 있다고 생각해 볼게요.
02:19
: 그랬을 때 데이터가 약 1,000개의 레코드가 공간에 분포하고, 각 해당 지점과 각각 노드와의 거리를 BMU로 계산을 해보니까
02:30
: 이 노란색 노드. 노란색 노드가 이 점에서 가장 가깝다고 판단되었어요. 그러면 그 데이터의 위치에 해당 노드를 데리고 옵니다.
02:43
: 여기서 이쪽으로 끌고 오게 돼요. 데이터를. 그러면 이 점에 있던 게 이쪽으로 이동하겠죠. 그러면 노드 위치가 바뀌게 될 거예요.
02:52
: 그리고 그 옆에 있는 데이터들을 계산해서. 다른 노드들도 위치가 바뀌게 되겠죠. 이 친구가 바뀌었는데 다른 애들도 바뀌게 될 거예요. 노드 위치가.
03:04
: 그러면 그 데이터 위치에 노드가 당기게 되어서, 위치가 바뀌게 되고. 그리고 그 옆에 있는 데이터들을 계산해서, 점 가까운 노드들을 계속 끌어옵니다.
03:16
: 그래서 이것들이 다 이동할 거예요. 연결되어서 마지막 그림과 같이, 데이터 위에 모든 노드가 이렇게 올라가게 될 거예요.
03:24
: 이런 식으로 만드는 게 SOM이라고 이해하시면 돼요.
03:30
: SOM도 군집분석과 마찬가지로 먼저, 군집의 개수를 정해야 됩니다.
03:36
: 군집의 중심을 5개로 정하면 임의로, 이렇게 5가지를 찍어낼 수 있겠죠. 5가지를 찍어내고.
03:44
: 모든 데이터를 가까운 점들끼리 계산을 하고. 그리고 모든 데이터에서 BMU에 연결이 되면, 그것들을 중심으로 비슷한 성격의 데이터들끼리 뭉치게 됩니다.
03:56
: 그래서 이런 식으로 마지막처럼 데이터들이 뭉치게 된다고 하면, SOM의 분석 결과가 나타난다고 이해하실 수 있습니다.
04:07
: 이런 걸 보통 어디서 사용하는지 보면.
04:11
: 전 세계에 있는 나라별로, 그 나라에서 사용되는 예상 금액을 가지고, 비슷한 수준을 가지는 예산들끼리 어떻게 분포하는지. 군집분석을 통해서 확인할 수 있을 겁니다.
04:22
: 그래서 이쪽에 하나의 군집. 예산이 많은 군집이라든지, 아니면 이쪽끼리 묶을 수 있고요. 아니면 이렇게도 묶을 수 있고. 이런 식으로도 묶을 수 있고.
04:36
: 그다음에 이런 식으로, 이렇게. 그다음에 이렇게. 그다음에 이렇게. 그다음에 이렇게.
04:46
: 이런 식으로, 7개 정도. 하나, 둘, 셋, 넷, 다섯, 여섯, 일곱 개 정도 군집을 이런 식으로 확인할 수 있을 거예요.
04:52
: 그래서 각각 색깔마다 특징이 있을 거예요. 예산이 많다든지, 아니면 대륙적 특성을 가지고 있다든지. 그런 것들을 확인해 볼 수 있을 거예요.
05:02
: 그래서 각각 군집에 따라 나라의 규모를 확인해 볼 수 있을 겁니다. 이런 식으로 확인이 가능하고요.
05:11
: 오른쪽 그림을 보시면 색깔들을 지도에 뿌려서 이런 식으로 표현될 거예요.
05:20
: 그러면 보라색의 특징이라든지. 빨간색의 특징. 아니면 노란색들의 특징. 이런 것들을 나라별로 확인해 볼 수 있을 겁니다.
05:29
: 대한민국이 어느 색깔의 포함이 되고, 그 포함되는 나라들이 특징은 어떤 것들이 있다. 예산이 얼마큼 많다. 이런 것들을, 군집을 통해 확인해 볼 수 있을 겁니다.
05:42
: SOM에 대해서 마지막으로 정리를 하고 마무리를 하겠습니다.
05:47
: SOM은 경쟁 학습이에요. 그래서 각각 뉴런이 입력 벡터와 얼마나 가까운가를 계산한다고 했어요. 그래서 BMU를 구한다고 말씀드렸습니다.
05:59
: 그래서 연결 강도를 반복적으로 재조정해서, 학습을 진행합니다.
06:05
: 이것은 ANN. 뉴럴 네트워크의 성질과 똑같죠. 그래서 반복 학습을, 연결 강도를 반복적으로 재조정한다는 점. 기억을 하시고요.
06:16
: 이 과정을 거치면서, 연결 강도는 입력 패턴과 가장 유사한 경쟁층의 뉴런이 승자가 된다고 합니다.
06:25
: 그래서 이런 식으로, 과정을 계속 반복할 거예요. 그래서 승자 독식 구조로 인해, 경쟁층에는 승자 뉴런만이 나타납니다.
06:34
: 하나의 BMU만 나타나게 될 거예요. 그래서 각각 BMU가 나타나면, 그 데이터들끼리 뭉치게 된다고 말씀드렸죠.
06:43
: 그래서 승자와 유사한 연결 강도를 갖는 입력 패턴이, 동일한 경쟁 뉴런으로 배열하게 된다고 말씀드릴 수 있어요.
06:54
: 마지막으로 하나 더 보면, 이 부분이 시험에 한 번씩 나왔던 부분이에요.
06:59
: SOM은. 이걸 이용한 군집분석 같은 경우는, SOM이라는 분석 방법이, 뉴럴 네트워크를 기반으로 하긴 해요. 하는데, 역전파 알고리즘을 이용하는 인공신경망과는 달라요.
07:13
: 그래서 단 하나의 전방 패스를 이용함으로써 속도가 매우 빨라요.
07:19
: 보통 인공신경망 같은 경우는, Back Propagation이라고 표현을 하고. 오류, 오차, 역전파를 사용하는 알고리즘을 주로 쓴다고 말씀드렸어요.
07:30
: 라벨이 있을 때, 오차 역전파 알고리즘을 쓸 수 있는데, SOM 같은 경우는 군집분석이기 때문에 라벨값이 없습니다.
07:41
: unsupervised learning이기 때문에, 역전파 알고리즘을 사용할 수가 없다고 기억하시면 돼요.
07:48
: 그래서 SOM 같은 경우는 단 하나의 전방 패스를 사용해서 속도가 매우 빠르다. 이런 장점이 있다는 것을 확인해 볼 수 있습니다.
07:58
: 실시간 처리, 실시간 학습을 할 수 있는 모형이다. 라고 기억하시기 바랍니다.
08:07
: 군집분석에 대한 분석 방법을 다 알아봤어요. 그래서 군집분석 같은 경우는 어떤 것들이냐. 계층적 군집분석도 있고요.
08:15
: 아니면 비계층적 군집분석에서는 k-means clustering이란 것도 있고.
08:20
: 그다음에 혼합 분포 군집 그리고 이번 시간에 배웠던 SOM이라는 분석 방법도 있다는 점. 반드시 기억해 주시고요.
08:29
: SOM 같은 경우는 이런 특징들에 대해서 물어보는 시험 문제가 나올 수가 있고, k-means라든지.
08:35
: 아니면 혼합 분포 군집도 개념을 묻는 문제들이 나온다고 말씀드렸어요. 혼합 분포 군집에서는 말씀드린 EM 알고리즘이란 것을 사용한다는 점. 반드시 기억하시고요.
20:00
:
00:07
~
02:24
1
2
3
검수 상태 :
불통
통과
불통
최종불통
lADsP 완전 정복l 비계층적 군집방법
_dIxTLolbv4
00:05
: 비계층적 군집분석에 대한 개념은 n개의 개체를 g개 군집으로 나눌 수 있는 모든 가능한 방법을 점검해 최적화된 군집을 형성하는 것이다. 라고 적혀 있습니다.
00:19
: n개의 개체에 대해서 g개의 군집을 먼저 g개가, 몇 개가 될 거다. 라고 미리 선정을 해 줘야 돼요.
00:25
: g개 군집을 나눌 수 있는 방법이다.
00:28
: 그중에서 가장 많이 사용되는 방법이 K-평균 군집분석이란 게 있습니다.
00:35
: k-means clustering이라고도 하는데, k-means clustering에 대해서 그림을 보면서 이해해 볼게요.
00:42
: 그림을 보시면 왼쪽부터 시작해서 1번, 2번, 3번, 4번, 5번, 6번 순으로 그래프가 변화되는 것을 보실 수 있을 거예요.
00:56
: 가장 먼저 x와 y에 대해서 좌표의 데이터를 뿌렸습니다.
01:03
: 뿌렸는데, 하나의 중점을 던져주고, 그 중점 근처에 있는 값들을 같은 군집이다라고 표시를 할 거예요.
01:12
: 이쪽에 중점, 이쪽에 중점, 이쪽에 중점을 두고, 그 중점과 가까운 데이터들에 대해서 같은 군집으로 묶었을 때,
01:20
: 처음에는 이런 식으로 데이터가 군집이 있었는데, 점점 반복했을 때는 중점의 거리가 멀어질 거예요.
01:32
: 편차의 오차 제곱 합을 최소화해야 되기 때문에 이 중점이 점점 이동을 할 겁니다.
01:40
: 여기서 여기로 이동했고요. 이쪽으로 이동을 했습니다.
01:44
: 그랬을 때 다시 군집에 대해서 값들이 바뀌게 될 거예요.
01:51
: 그리고 또 한 번 진행을 했을 때도 중점이 내려옵니다. 이거는 그대로 있을 거예요.
01:59
: 그랬을 때 다시 군집의 개수가 바뀔 겁니다.
02:04
: 네 번째, 다섯 번째, 여섯 번째까지 반복을 하니까, 첫 번째보다 안정적으로 군집들이 잘 분리가 되어지는 것을 확인 할 수 있고,
02:17
: 중점값들이 점점 이동을 할 거예요. 반복에 따라서 중점이 계속 바뀌면서 군집도 바뀌게 될 거예요.
02:26
: 이 방법을 k-means clustering이라고 표현을 합니다.
02:30
: K-평균 군집 같은 경우는 하는 방법이 어떻게 되느냐, 원하는 군집의 개수를 먼저 정해줘야 돼요.
02:39
: 그리고 초깃값, 어디로 초기 중점을 둘 것이냐. 라고 정한 다음에 시드 중심으로 군집을 형성합니다.
02:48
: 시드값을 중심으로 처음에 군집을 형성을 할 거예요.
02:53
: 그리고 각 데이터를 거리가 가장 가까운 시드가 있는 군집으로 분류를 하고요. 각 군집의 시드를 다시 계산합니다.
03:03
: 오차가 가장 작아질 수 있도록 최적의 중점을 찾아갈 겁니다.
03:08
: 거기에 맞는 값들에 대해서 다시 군집을 하고, 이런 식으로 반복을 할 거예요. 시드값을 다시 계산을 하고요.
03:16
: 모든 개체가 군집으로 할당될 때까지 위의 과정들을 반복한다. 라고 합니다.
03:24
: 첫 번째 한 번 군집이 됐던 게, 또 다른 값으로 군집이 바뀔 수도 있고, 이런 것들이 K-평균 군집의 특징이다, 기억을 하시기 바랍니다.
03:36
: 비계층적 군집 분석, k-means에 대해서 한 번 봤는데, 이거에 대한 장점과 단점이 있을 거예요.
03:45
: 위에는 장점이 아니라 단점입니다.
03:50
: 장점을 보시면 주어진 데이터의 내부 구조에 대한 사전 정보 없이 의미 있는 자료구조를 찾을 수 있다.
03:59
: 이거는 비계층적 군집, 군집 분석에 모든 장점에 포함이 될 수도 있는 말이에요.
04:05
: 사전 정보 없이, 목적 없이 클러스터링을 할 수 있다. 그래서 의미 있는 자료구조를 바로 찾을 수가 있을 거예요.
04:14
: 다양한 형태의 데이터에 적용이 가능하다. 라는 장점도 있습니다.
04:18
: 분석 방법 적용이 용이하다. 라는 장점, 이런 장점에 대해서는 시험 문제에서 물어볼 수 있다. 라는 점 반드시 기억을 하시고요.
04:28
: 비계층적 군집 분석에 대해서 단점도 있어요.
04:32
: 단점이 어떤 것들이 있냐. 가중치와 거리 정의가 어려워요.
04:38
: 가중치 조정을 해야 되는데 가중치를 선정하는 것이나, 아니면 거리를 정의하는 것 자체가 어렵고요.
04:44
: 초기 군집 수를 결정하기가 어렵습니다.
04:48
: 초기 군집 수를 결정을 해야 되는데, 최고의 군집수를 선정을 해야 되는데 그게 어려워요.
04:55
: R 프로그램에서는 nbcluster라는 것을 활용해서 nbcluast 패키지를 활용을 해서 초기 군집 값을 결정하고,
05:06
: 그 군집으로 k-means라든지 k-medoids 이런 방법들을 활용한다. 라고 기억하시면 돼요.
05:13
: 사전에 주어진 목적이 없어 해석이 어려울 수도 있습니다.
05:18
: 군집은 잡혔는데 그 군집에 대한 특징을 확인 못 할 수도 있어요. 그런 단점이 있다고 기억해 주시기를 바랍니다.
05:28
: k-means clustering을 하면서 초기 중심값 설정이 얼만큼 중요한지에 대해서 확인해 보실 수가 있을 거예요.
05:37
: 초기 설정값이 이렇게 주어졌는데, 결국에는 다시 또 이동을 할 거예요.
05:49
: 두 번째, 세 번째, 네 번째, 다섯 번째까지 왔는데, 두 번째에서 데이터를 이런 식으로 중점을 줬어요.
05:58
: 수직으로 데이터를 줬는데, 보통 x라든지, y라는 값이 수평이라든지 수직으로 같은 선상 위에 중점을 주게 되면,
06:10
: 그 근처에서 놀기 때문에 중점이 정확하게 안 잡힐 수도 있어요.
06:16
: 이런 식으로 잡았을 때는 안으로 이동을 해서 겹치게 돼요.
06:21
: 그리고 이것은 이 근처에 중점 근처에 값들이 없습니다.
06:25
: 세 번째는 이 값은 거의 그대로 있고요. 이 값 그대로 가기 때문에. 근데 위에 두 가지 값 같은 경우는 계속 바뀌어요. 중점이.
06:34
: 그래서 이 군집이 정확하게 잘되지 않고 계속해서 바뀔 거다.
06:38
: 이 밑엣것은 문제가 없겠지만 위의 두 개 값은 계속 바뀔 수 있다.
06:43
: 그렇기 때문에 초기 중심값 같은 경우는, 이렇게 두기보다는 앞서 설명을 해드렸던 이런 식으로,
06:52
: 거리를 두고, 오밀조밀하게 모이는 게 아니라, 일자로, 세로나 가로로 두는 게 아니라,
07:00
: 비슷한 위치지만 이런 식으로 x, y 값이 다르게 배치를 하는 것이 낫다. 라는 점 기억을 해주시면 돼요.
07:09
: 비계층적 군집분석 중에서 k-means 중점에 대한 평균값을 계속 구해나가는 k-means clustering을 진행을 할 수 있고,
07:19
: 초기 중심 값 설정이 어려우시면 k-medoids, 중간값을 통해서도 할 수 있다. 아니면 다른 방법 이용을 할 수 있다. 라는 점 기억을 해주시면 됩니다.
07:30
: k-means 같은 경우 장점이라든지, 단점 기억을 하시고요.
07:36
: 이 부분에 대해서 나올 만한 시험 문제가, 방법, 앞서 나왔던 방법, 이런 것들도 시험 문제 나올 수 있으니까 반드시 기억을 해 주시기 바랍니다.
07:51
: 비계층적 군집분석의 첫 번째 k-means clustering에 대해서 한번 개념을 알아봤고요.
20:00
:
00:05
~
02:24
1
2
3
검수 상태 :
불통
통과
불통
최종불통
키워드 :
영상UID :
시작 시간 :
종료 시간 :
우선순위 :
추가
이전
다음