LLM의 성능을 좌우하는 핵심 단위 ‘파라미터’란 무엇인가?
파라미터는 우리가 즐겨 쓰는 AI 모델을 작동하게 하는 신비로운 숫자들로 이루어져 있다. 그렇다면 이 숫자들은 무엇이며 어떤 역할을 하는 것일까?
이번 기사에서는 대형언어모델(LLM)을 언급할 때 등장하는 개념인 ‘파라미터’에 대해 설명해 보고자 한다. 이 주제를 선정한 이유는 필자의 편집자 중 한 명이 한밤중에 잠에서 깨어 침대 옆 메모지에 이렇게 적어 놓았기 때문이다. “파라미터란 무엇인가?” 새벽 4시에 떠오르는 생각치고는 드물게 정말 좋은 질문이다. LLM이 어떻게 작동하는지를 정확히 꿰뚫는 질문이기 때문이다.
LLM의 파라미터는 흔히 모델의 행동을 조절하는 ‘다이얼’이나 ‘레버’ 같은 장치에 비유된다. 이를 행성 크기의 핀볼 게임(아래)으로 생각해 보자. 구슬이 이리저리 튀도록 튕기는 수십억 개의 장치가 배치되어 있다고 상상하면 된다. 파라미터는 이 장치들과 같아서 조금만 조정해도 구슬의 움직임, 즉 모델의 결과를 완전히 바꿀 수 있다.

오픈AI가 2020년에 공개한 GPT-3는 1,750억 개의 파라미터를 가지고 있었다. 구글 딥마인드의 최신 LLM인 제미나이3는 최소 1조 개(7조 개에 이를 것이라는 추정도 있음)의 파라미터를 가지고 있지만 정확히 공개된 바는 없다. 경쟁이 치열해지면서 AI 기업들은 이제 자사 모델의 구조를 거의 공개하지 않는다.
그러나 모델마다 파라미터의 수가 다르다고 해도 파라미터가 무엇이며 LLM이 놀라운 일을 하는 데 어떤 역할을 하는지에 대한 기본 원리는 동일하다. LLM이 실제로 무엇을 통해 작동하는지 궁금했던 적이 있는가? 그렇다면 이번 기사를 통해 파라미터에 대해 하나씩 살펴보자.
파라미터란 무엇인가?
중학교 때 배운 대수식을 떠올려 보라. 대수식이란 숫자, 변수, 연산자 등을 조합하여 만든 2a + b와 같은 식을 말한다. 여기서 a, b와 같은 변수가 바로 파라미터다. 변수에 값이 주어지면 결과가 나온다. 수학이나 코딩에서 파라미터는 범위를 정하거나 출력값을 결정하는 데 사용된다. LLM 내부의 파라미터도 같은 방식으로 작동한다. 다만 그 규모가 상상을 초월할 뿐이다.
파라미터의 값은 어떻게 정해지는가?
알고리즘을 통해 정할 수 있다. 모델을 훈련시킬 때 각 파라미터는 처음에 무작위 값으로 설정된다. 이후 훈련 과정에서 ‘훈련 단계(training step)’라고 불리는 반복 계산을 통해 파라미터 값이 계속 업데이트된다. 훈련 초기에 모델은 많은 오류를 낼 것이다. 훈련 알고리즘은 각 오류를 살펴본 뒤 다음에는 해당 오류의 발생이 줄어들 수 있도록 모델이 가진 수많은 파라미터의 값을 조금씩 조정한다. 이 과정이 반복되고 반복되다가 모델이 설계자가 원하는 방식으로 동작하게 되면 훈련이 종료되고 그 시점의 파라미터 값이 고정된다.
설명만 보면 간단한 것 같다.
이론적으로는 그렇다. 그러나 실제로는 LLM이 엄청난 양의 데이터로 학습하고, 파라미터 수 또한 방대하기 때문에 LLM을 훈련시키는 과정에서 막대한 ‘훈련 단계’를 거치게 되며 눈이 휘둥그레질 정도의 계산이 필요하다. GPT-3처럼 중간 규모의 LLM 하나만 생각해 봐도 내부의 1,750억 개 파라미터는 훈련 과정에서 각각 수만 번씩 업데이트된다. 이를 모두 합치면 1,000조 단위의 개별 계산이 이루어지는 것이다. 이로 인해 LLM 훈련에는 엄청난 에너지가 소모된다. 수천 대의 특수 고속 컴퓨터가 몇 달 동안 쉬지 않고 돌아가는 수준이다.
엄청나다. 그런데 그 모든 파라미터는 정확히 무슨 역할을 하는가?
LLM 내부에는 훈련을 통해 값이 정해지는 세 가지 파라미터가 있다. 임베딩(embedding), 가중치(weight), 편향(bias)이다. 이제 각각을 차례대로 살펴보겠다.
임베딩이란 무엇인가?
임베딩은 LLM의 어휘에 포함된 단어, 또는 단어의 일부인 토큰(token)을 수학적으로 표현한 값이다. LLM의 어휘는 훈련이 시작되기 전에 설계자가 미리 정해 두며 최대 수십만 개의 고유 토큰을 포함할 수 있다. 그러나 이 단계에서는 단어에 의미가 붙어 있지 않다. 의미는 훈련 과정에서 생겨난다.
모델이 학습하면서 각 단어는 수많은 학습 데이터 속에서의 용례를 바탕으로 다른 모든 단어와의 관계를 반영한 숫자 값을 부여받는다. 이 숫자가 바로 해당 단어의 의미를 담고 있다.
각각의 단어가 일종의 코드로 대체된다는 의미인가?
그렇다. 다만 조금 더 복잡하다. 각 단어를 나타내는 숫자 값, 즉 임베딩은 사실 여러 개의 숫자로 이루어진 ‘목록’이다. 이 목록의 각 숫자는 모델이 학습 데이터를 통해 추출한 의미의 다양한 측면을 나타낸다. 이 숫자 목록의 길이 역시 LLM을 훈련시키기 전에 설계자가 정할 수 있다. 흔히 쓰이는 길이는 4,096이다.
그럼 LLM 내부의 모든 단어가 각각 4,096개의 숫자로 표현된다는 뜻인가?
그렇다. 그것이 바로 임베딩이다. 그리고 이 4,096개 숫자 하나하나가 훈련 과정에서 조정된다. 임베딩 길이가 4,096인 LLM은 4,096차원을 가진다고 말한다.
왜 4,096인가?
4,096이라는 숫자가 조금 이상해 보일 수도 있다. 하지만 LLM은 컴퓨터 칩에서 작동하는 다른 모든 것과 마찬가지로 2의 거듭제곱(2, 4, 8, 16, 32, 64 등)일 때 가장 효율적이다. LLM 엔지니어들은 4,096이 성능과 효율 사이에서 최적의 균형을 이루는 값이라는 사실을 발견했다. 4,096보다 차원이 더 적으면 모델의 성능이 떨어지고 그보다 더 많으면 훈련과 실행 비용이 지나치게 커지거나 속도가 느려진다.
LLM은 숫자를 더 많이 사용할수록 단어가 다양한 맥락에서 어떻게 쓰이는지, 어떤 미묘한 뉘앙스를 갖는지, 다른 단어들과 어떻게 연결되는지 등 매우 세밀한 정보까지 포착할 수 있다.
지난해 2월 오픈AI는 자사 역사상 가장 규모가 큰 LLM인 GPT-4.5를 공개했다(일부 추정에 따르면 GPT-4.5의 파라미터 수는 10조 개 이상이다). GPT-4.5 개발에 참여한 오픈AI의 닉 라이더(Nick Ryder) 연구 과학자는 당시 필자에게 “모델의 규모가 커지면 화자의 말 속에 담긴 적대감과 같은 감정적 단서처럼 추가적인 정보까지 처리할 수 있다”면서 “인간의 대화 속에 숨어 있는 온갖 미묘한 패턴들도 포착할 수 있게 된다”고 말한 바 있다.
결론적으로 LLM 안의 모든 단어는 고차원 공간 속에 인코딩된다. 수천 개의 단어가 공중에 떠 있는 모습을 상상해 보라. 의미가 비슷한 단어들은 서로 가까이 있다. 예를 들어 ‘탁자’와 ‘의자’는 ‘우주비행사’보다 훨씬 가까이 있고, ‘우주비행사’는 ‘달’ 같은 단어들과 가까이 있다. 아주 멀리 떨어진 곳에는 ‘요술’ 같은 단어가 보인다. LLM에서는 이러한 단어들의 관계가 3차원이 아닌 4,096차원에 걸쳐 형성되는 것이다.
엄청나다.
그렇다. 사실상 LLM은 인터넷 전체를 하나의 거대한 수학적 구조로 압축해 상상하기 어려울 만큼 방대한 정보 간의 연결을 담아내는 것이라고 할 수 있다. 이것이 LLM이 놀라운 일을 해낼 수 있는 이유이자 동시에 우리가 그 내부를 완전히 이해할 수 없는 이유다.
임베딩이 무엇인지는 알겠다. 그렇다면 가중치란 무엇인가?
가중치는 모델의 서로 다른 부분들 사이의 연결 강도를 나타내는 파라미터로, 모델의 행동을 조정하는 대표적인 ‘다이얼’ 중 하나다. LLM이 텍스트를 처리할 때 가중치가 사용된다.
LLM이 하나의 문장(또는 책의 한 챕터)을 읽는 경우, 먼저 모든 단어의 임베딩을 찾아낸 뒤 이를 트랜스포머(transformer)라고 불리는 신경망에 통과시킨다(트랜스포머는 텍스트처럼 순차적인 데이터를 한꺼번에 처리하도록 설계된 구조다). 이 과정에서 문장 속 모든 단어는 다른 모든 단어와의 관계 속에서 함께 처리된다.
바로 여기에서 가중치가 등장한다. 임베딩은 문맥이 없는 상태에서 단어의 의미를 나타낸다. 단어가 특정 문장 안에 등장하면 트랜스포머는 가중치를 사용해 해당 단어의 의미를 새로운 문맥 속에서 재해석한다. (실제로는 각 단어의 임베딩에 다른 모든 단어에 대한 가중치를 곱하는 방식으로 작동한다.)
그렇다면 편향은?
편향은 가중치의 효과를 보완하는 또 다른 ‘다이얼’이다. 가중치는 모델의 어느 부분이 활성화되는지, 즉 모델의 어느 부분이 작동해 다음 부분으로 데이터를 넘길지에 대한 임계값을 설정한다. 편향은 그 임계값을 조정해 임베딩 값이 낮더라도 활동을 촉발할 수 있게 한다. (편향은 임베딩에 곱해지는 값이 아니라 더해지는 값이다.)
편향은 모델의 어느 부분이 활성화되는지에 대한 임계값을 이동시킴으로써 해당 값을 조정하지 않았다면 놓쳤을 정보까지 모델이 포착할 수 있게 한다. 시끄러운 방에서 누군가의 말을 들으려는 상황을 상상해 보라. 가중치는 가장 큰 소리를 더 크게 증폭시키는 역할을 하는 반면, 편향은 청취 장치에서 더 작은 소리의 볼륨을 올리는 노브와 비슷하다.
요약하면 이렇다. 가중치와 편향은 LLM이 주어진 텍스트에서 가능한 한 많은 정보를 끌어내는 두 가지 서로 다른 방식이다. 그리고 이 두 종류의 파라미터는 훈련 과정에서 수없이 반복해 조정된다.
뉴런은 무엇인가? 뉴런도 파라미터의 한 종류인가?
아니다. 뉴런은 파라미터라기보다는 이 모든 수학 계산을 조직화하는 방식에 가깝다. 뉴런은 가중치와 편향을 담고 있는 일종의 ‘그릇’이며 복잡한 경로망으로 연결돼 있다. 이러한 구조는 동물의 뇌 속에 있는 생물학적 뉴런(신경세포)에서 영감을 받아 탄생했다. 하나의 뉴런에서 발생한 신호가 다음 뉴런을 자극하고 그다음으로 계속 이어지는 식이다.
모델 속 각 뉴런은 편향 하나와 모델의 모든 차원에 대응하는 가중치를 가지고 있다. 다시 말해, 모델이 4,096차원을 가진다면(즉, 임베딩이 4,096개의 숫자로 이루어져 있다면) 해당 모델의 각 뉴런은 편향 하나와 4,096개의 가중치를 가지는 것이다.
뉴런은 여러 층(layer)으로 배열된다. 대부분의 LLM에서는 한 층의 각 뉴런이 바로 위 층의 각 뉴런과 연결돼 있다. GPT-3처럼 파라미터가 1,750억 개인 모델은 각 층마다 수만 개의 뉴런으로 구성된 약 100개 층을 가질 수도 있다. 그리고 각 뉴런은 동시에 수만 번의 계산을 수행한다.
그 모든 구조들이 어떻게 맞물리는 것인가? LLM은 단어들을 입력받아서 어떻게 단어를 다시 출력하는가?
LLM이 텍스트를 처리할 때 해당 텍스트의 숫자 표현인 임베딩은 모델의 여러 층을 차례로 통과한다. 각 층마다 임베딩(4,096개 숫자의 목록) 값은 뉴런에 붙어 있는 가중치와 편향을 반영한 계산을 거치며 수없이 업데이트되다가 마침내 마지막 층에 도달한다.
이 과정의 핵심은 입력된 텍스트의 의미와 뉘앙스, 문맥이 상상을 초월하는 이러한 연산 과정들을 거친 뒤 최종 임베딩 값에 모두 반영된다는 점이다. 그리고 이 값은 LLM이 다음에 어떤 단어를 출력할지 계산하는 데 사용된다.
이미 예상했겠지만 실제 과정은 위의 설명보다 훨씬 복잡하다. 모델은 사실 어휘에 포함된 모든 단어에 대해 다음에 나올 가능성이 얼마나 되는지 계산한 뒤 순위를 매긴다. 그리고 그중 순위가 가장 높은 단어를 선택한다. (정확히는 조금 다르다. 아래를 참고하라.)
선택된 단어가 이전 텍스트 뒤에 덧붙여지고 나면 같은 과정이 반복된다. 그러다 LLM이 다음에 출력할 가능성이 가장 높은 단어가 ‘출력의 끝’을 의미하는 단어라고 판단하면 그때서야 이 모든 과정이 멈추게 된다.
그게 전부인가?
그렇다. 그렇긴 한데…
계속 설명해 보라.
LLM 설계자들은 여기에 더해 하이퍼파라미터(hyperparameter)라고 불리는 몇 가지 다른 파라미터들도 지정할 수 있다. 대표적으로 온도(temperature), 탑-p(top-p), 탑-k(top-k) 등이 있다.
우선 온도는 일종의 창의성 조절 다이얼처럼 작동하는 파라미터이며, 모델이 다음에 어떤 단어를 선택할지에 영향을 준다. 앞서 모델이 어휘에 있는 단어들을 확률 순으로 정렬한 뒤 순위가 가장 높은 단어를 고른다고 설명했다. 하지만 온도 파라미터를 조정하면 모델이 가장 개연성이 높은 단어를 선택하도록 유도해 출력 결과의 사실성과 적절성을 높일 수도 있고, 반대로 개연성이 더 낮은 단어를 고르게 해 출력 결과의 의외성을 높이면서 기계적인 느낌을 줄일 수도 있다.
탑-p와 탑-k는 모델의 다음 단어 선택을 조절하는 또 다른 파라미터들이다. 이 파라미터들은 모델이 가장 순위가 높은 단어 하나를 고르는 대신, 개연성이 가장 높은 단어들의 집합에서 무작위로 하나를 선택하도록 강제한다. 이런 파라미터들을 활용하면 모델이 주는 인상을 바꿀 수 있다. 파라미터 설정에 따라 모델이 괴짜 같고 창의적으로 보일 수도 있고, 신뢰할 만하지만 다소 밋밋하게 느껴질 수도 있다.
마지막 질문 하나! 요즘 작은 모델이 큰 모델의 성능을 능가할 수 있다는 이야기가 많이 나오고 있다. 어떻게 적은 파라미터로 더 많은 일을 해낼 수 있는가?
지금 AI 분야에서 상당히 뜨거운 화제 중 하나다. 가능한 방식은 여러 가지가 있다. 우선 연구자들은 학습 데이터의 양이 엄청난 차이를 만든다는 사실을 발견했다. 따라서 모델이 제대로 성능을 발휘하게 하려면 학습 데이터의 양이 충분해야 한다. 너무 적은 텍스트로 훈련시킨 LLM은 자신이 가진 파라미터를 충분히 활용하지 못하기 때문에 같은 양의 데이터를 학습한 더 작은 모델이 오히려 더 나은 성능을 낼 수도 있다.
연구자들이 찾아낸 또 한 가지 방법은 과잉 훈련(overtraining)이다. 이전에 필요하다고 생각했던 것보다 훨씬 많은 데이터를 모델에 보여주면 성능이 더 좋아진다는 것이다. 즉, 많은 데이터로 훈련시킨 작은 모델이, 더 적은 데이터로 훈련시킨 큰 모델의 성능을 능가할 수 있다. 메타의 라마(Llama)를 예로 들어보겠다. 파라미터가 700억 개인 라마2는 2조 단어 정도의 텍스트로 훈련됐고, 파라미터가 80억 개인 라마3는 약 15조에 이르는 단어로 훈련됐다. 둘 중에서 규모가 훨씬 작은 라마3가 더 나은 모델이다.
세 번째 방법은 증류(distillation)라고 한다. 증류는 규모가 더 큰 모델을 사용해 작은 모델을 훈련시키는 방법이다. 작은 모델은 원본 학습 데이터뿐 아니라 큰 모델의 내부에서 이루어진 계산의 출력 결과까지 함께 학습한다. 즉, 큰 모델의 파라미터에 담긴 ‘값비싼’ 결과물들이 작은 모델의 파라미터에 반영돼 성능을 끌어올린다는 개념이다.
어쩌면 하나의 거대한 단일 모델 시대는 이미 저물고 있는지도 모른다. 오픈AI의 GPT-5나 구글 딥마인드의 제미나이3처럼 시장에 나온 가장 큰 모델들조차 사실은 작은 모델 여러 개가 코트 하나를 함께 입고 있는 모습에 가깝다고 볼 수 있다. ‘전문가 혼합(mixture of experts, MoE)’이라 불리는 방법을 사용하면 대형 모델은 특정 텍스트를 처리하는 데 필요한 부분(‘전문가’)만 활성화할 수 있다. 이는 대형 모델의 뛰어난 성능과 소형 모델의 빠른 속도 및 낮은 전력 소비라는 장점을 동시에 누릴 수 있는 방식이다.
그러나 이야기는 여기서 끝이 아니다. 연구자들은 여전히 파라미터를 최대한 활용하는 방법을 모색하고 있다. 단순히 규모를 키우는 데서 얻는 이익이 점점 줄어들면서 파라미터 수를 무작정 늘리는 전략이 예전만큼 효과적이지 않은 상황이다. 이제 중요한 것은 ‘얼마나 많이 가지고 있는가?’가 아니라 그것을 ‘어떻게 활용하는가?’이다.
파라미터를 직접 볼 수는 없는가?
파라미터를 직접 보고 싶다고? 아래 임베딩의 예시를 하나 제시한다.
| [0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223 -0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221 0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212 0.0329 -0.0141 0.0075 -0.0561 0.0118 [0.0441 -0.0039 0.0452 -0.0119 0.0228 -0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442 -0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448 0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012 -0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332 0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121 -0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011 0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282 -0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541 0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012 -0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332 0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445 0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661 0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 ] |
The post LLM의 성능을 좌우하는 핵심 단위 ‘파라미터’란 무엇인가? appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.