본문 바로가기

카테고리 없음

Hardy-Littlewood circle method

 이것은 정수론의 방법론 중 하나인데, 대충 개요는 이래요.

 "어떤 것의 갯수를 Fourier transform 비슷하게 나타낸 다음에 안쪽 함수의 행동에 따라서 major arc와 minor arc를 잡자!!"

 
 예를 들어볼까요?? 다음과 같은 문제를 생각할 거예요.

 "어떤 자연수 \(N\)이 있을 때, 이 \(N\)을 \(k\)제곱수의 \(n\)개의 합으로 나타내는 경우의 갯수는??"

 예를 들면, \(k=2\), \(s=4\)라고 하면 나타낼 수 있다는 것은 Lagrange's four square theorem이 되고, 그 방법의 수를 정확하게 나열한 것은 Jacobi's four square theorem이 돼요. 이는 modular form으로 다룰 수 있어요!! \(\Gamma_0(4)\)에서 modular form of weight \(2\)인 theta function이 있거든요.


 하지만 \(k\ge 3\)이 되는 순간, 이런 대수적 방법으로 다루기는 너무나도 어려워져요. 대수적 방법은 잘 생각해보면, cohomology 둘이서 pair를 만들거나, 적어도 어떤 한쪽과 다른 dual인 쪽을 많이 생각해요!! quadratic form은 그래서 너무나도 다루기 쉬운 거예요.

 근데, 3차 이상으로 올라가는 순간 다루기는 극도로 까다로워져요!! 그럴 땐 해석적 방법을 생각하는데, 그 대표적인 방법이 바로 Hardy-Littlewood circle method예요.


 앞으로 notation은 Nathanson의 Additive number theory-The classical base를 따를께요.


 다음을 정의해요.

$$ r_{k,s}(N)=\#\{(x_1,\cdots,x_s)\in \Bbb{Z}^{s}|x_1^k+\cdots+x_s^k=N\}$$

그렇다면 Waning's problem을 소개하자면, 바로 이렇게 말할 수 있어요.

"모든 \(k\)에 대해서 적당한 \(s\)가 있어서 충분히 큰 모든 \(N\)에 대해서 \(r_{k,s}(N)>0\)이야??"

 그 어디서나 나오는(...) Hilbert는 이것을 증명하였고, 이를 Hilbert-Waring theorem이라고 불러요.


 그렇다면, 다음 의문은 \(r_{k,s}(N)\)의 정확한 값(!!)이예요. 왠지 이것만 보면 구할 수 없어(...) 보여요. \(k=2\)일 때를 잠깐 돌아보자면, 이걸 구할 때 theta function을 정의했고, 그 theta function이 modular form임을 증명했고, Hurwitz theorem을 써서 그 modular form들의 dimension을 구하고, 적당한 Eisenstein series의 합으로 나타냈지요.

 근데 여기선 theta function 자체를 못 만들어요 (...) 하지만 우리는 비슷한 시도를 할 거예요!!

 $$ f(z)=\sum_{n\ge 0}z^{n^k}$$

라고 할께요. 이것은 theta function의 정의 비슷하지만 modular form은 아니에요(...) 하지만 우리는 비슷한 짓을 할 수 있어요. 이렇게!!

$$ f(z)^s=\sum_{n\ge 0}r_{k,s}(n)z^n$$

그리고 그그 복소해석을 배웠다면 다들 알법한 그 테일러 급수 공식을 생각한다면

$$ r_{k,s}(n)=\int_{|z|=\rho}\frac{f(z)^s}{z^N}\,\mathrm{d}z$$

가 만들어져요!! 왼쪽은 뭔가 범접할 수 없는 무언가(...)로 느껴지지만, 오른쪽은 뭔가 할 것이 많아보이지 않나요?? 이것이 Hardy와 Littlewood의 첫 생각이고, 얘들은 이걸로 다음을 증명했어요.


 Theorem. 적당한 \(s_0\)가 있어서 \(s\ge s_0\)이라면 \(N\)에 uniformly bounded인 \(\mathfrak{G}(N)=\mathfrak{G}_{k,s}(N)\)가 있어서

$$ r_{k,s}(N)=\mathfrak{G}(N)\Gamma\left(1+\frac{1}{k}\right)^s\Gamma\left(\frac{s}{k}\right)^{-1}N^{\frac{s}{k}-1}+O\left(N^{\frac{s}{k}-1-\delta}\right)$$

for some \(\delta=\delta(k,s)>0\)이다.


 어떻나요?? (...) 그냥 앞의 singular series라고 부를 \(\mathfrak{G}(N)\)에 나머지 gamma function까지 다 몰아버리면

$$ r_{k,s}(N)=a_{k,s}N^{\frac{s}{k}-1}+O\left(N^{\frac{s}{k}-1-\delta}\right)$$

라고 쓸 수 있고, \(N\)이 충분히 크면 첫번째 term이 두번때 term보다 훨씬훨씬훠얼씬 크니까 Hilbert-Waring theorem이 증명이 끝나요!!

 

 전 Vinogradov가 한 방법을 따를께요. 그야 저 Nathanson에 있는 게 Vinogradov의 방법을 썼다고 되어 있으니까 (!!)


 저걸 조금 FourierFourier스럽게 만들고 싶은데, notation을 간결하게 다음과 같이 쓸께요.

$$ e(\alpha)=e^{2\pi i \alpha}$$

그렇다면 저건 다음과 같이 바꿀 수 있어요!!

$$ r_{k,s}(N)=\int^{1}_{0}F(\alpha)^se^{-Ns}\,\mathrm{d}\alpha$$

여기에서

$$ F(\alpha)=\sum_{n\ge 0}e(n^s\alpha)$$

라고 정의할께요.


 Exercise. \(k=1\)일 때 \(r_{1,s}(N)\)을 explicit하게 구해보세요!!


 Hardy-Littlewood circle method에서 정말로 많이 중요한 것은, 바로 major arcminor arc의 존재예요!! 저 안쪽 함수가 언제 잘 계산이 되고 언제 안 될까?? 바로 이걸 나눈 거.

 먼저 \(s\ge 2^k+1\)이라고 할께요. 그렇다면 \(N\ge 2^k\)일 때

$$ P=[N^{\frac{1}{k}}]$$

라고 놓을께요. 그리고

$$ 0\le \nu\le \frac{1}{5}$$

라고 하고,

$$ 1\le q\le P^{\nu}, 1\le a\le q$$

라고 하고, \((a,q)=1\)이라고 놓을께요. 그렇다면

$$ \mathfrak{M}(a,q)=\left\{\alpha\in [0,1]|\left|\alpha-\frac{a}{q}\right|\le \frac{1}{P^{k-\nu}}\right\}$$

라고 정의할께요!! 바로 "유리수로 잘 근사되는 구간"이란 뜻이에요. 그렇다면

$$ \mathfrak{M}=\bigcup_{1\le q\le P^{\nu}}\bigcup^{q}_{\substack{a=0 \\ (a,q)=1}}\mathfrak{M}(a,q)$$

라고 정의할 수 있을 거예요.

 그리고 \(k\ge 2\)란 조건을 추가로 줄께요. 이런 조건을 주는 이유는 저 union이 disjoint union이 되게 하려고. 이런 조건들을 모으면, \(\alpha\in \mathfrak{M}(a,q)\cap \mathfrak{M}(a',q')\)라고 한다면

$$ \begin{aligned}\frac{1}{P^{2\nu}}&\le \frac{1}{qq} \\ &\le \left|\frac{a}{q}-\frac{a'}{q'}\right| \\ &\le \left|\alpha-\frac{a}{q}\right|+\left|\alpha-\frac{a'}{q'}\right| \\ &\le \frac{2}{P^{k-\nu}}\end{aligned}$$

가 되고, \(k\ge 2,P\ge 2\)로 모순이에요!! 그리고 여기에서 \(0\le \nu\le \frac{1}{5}\)로 잡은 이유가 나오지요(...)


 minor arc를 생각할텐데, 그냥

$$ \mathfrak{m}=[0,1]\setminus \mathfrak{M}$$

라고 정의할께요.


 이제 상대적으로 계산이 쉬운(...) minor arc부터 계산한다면 다음 두 inequality를 볼께요. inequality를 쓸 땐 위의 setting은 모두 무시할께요.


 Inequality. (Weyl's inequality) \(p\)가 polynomial of degree \(k\ge 2\)라고 하고 real coefficient를 가진다고 하자. 그리고 \(\alpha\)가 \(\frac{a}{q}\)에 다음과 같이 근사된다고 하자.

$$ \left|\alpha-\frac{a}{q}\right|\le \frac{1}{q^2}$$

그렇다면 \(K=2^{k-1},\varepsilon>0\)이라 할 때

$$ S(f)=\sum^{N}_{n=1}e(f(n))$$

라고 한다면

$$ S(f)\ll_{k,\varepsilon} N^{1+\varepsilon}\left(N^{-1}+q^{-1}+N^{-k}q\right)^{\frac{1}{K}}$$

이다.


 Inequality. (Hua's lemma) \(k\le 2\)라고 하자. 그리고

$$ T(\alpha)=\sum^{N}_{n=1}e(\alpha n^k)$$

라고 하자. 그러면\

$$ \int^{1}_{0}|T(\alpha)|^{2^k}\,\mathrm{d}\alpha\ll_{\varepsilon} N^{2^j-j+\varepsilon}$$

이 된다.


 모두 polynomial꼴 exponential sum에 대한 approximation인데, 제대로 된 증명은 안 할께요. (...) 대충 \(S(f)\)나 \(T(\alpha)\)같은 애의 degree를 제곱과 켤레복소수를 이용해 줄이고 induction을 쓴다고 알아두면 될 것 같아요. 저 \(K\)는 그 켤레씌우는 작업을 \(j-1\)번 해줘서 있는 거. 그러면 저 유리수 근사는 왜 있는거야??라고 물을 수 있는데, 저도 잘 몰라요(...) 그냥 계산 더 잘 하려고 나온 거예요(...) 자세한 증명은 Nathanson을 보길 바래요 (...)

 이건 딴말인데, 이렇게 쓰는 것보다 exponential 자체를 character로 보고, 저 polynomial은 scheme over a finite field로 보는 게 훨씬 더 좋은 결과를 줘요. Grothendieck-Lefschetz trace formula라는 게 있어서...


 어쨌든, \(Q=P^{k-\nu}\)라고 할께요. 모든 \(\alpha\in [0,1]\)은 적당한 \(a,q\)가 있어서 \((a,q)=1\)이고 \(1\le q\le Q\)고

$$ \left|\alpha-\frac{a}{q}\right|\le \frac{1}{qQ}$$

가 돼요. 그냥 Dirichlet approximation theorem. 이걸 왜 꺼냈냐면 minor arc에 대해서 계산하고 싶어서!! \(q\le Q\)라면 \(\alpha\in \mathfrak{M}(a,q)\)가 나와서 모순이고, 우리는 쉽게 \(Q< q\le P\)임을 알 수 있어요. 따라서 \(f(x)=\alpha x^k\)에 대해서 Weyl's inequality를 쓴다면

$$ \begin{aligned} F(\alpha)&\ll P^{1+\varepsilon}\left(P^{-1}+q^{-1}+P^{-1}q\right)^{\frac{1}{K}}\\ &\ll P^{1+\varepsilon-\frac{\nu}{K}}\end{aligned}$$

가 되고, Hua's lemma를 쓴다면

$$ \begin{aligned} \left|\int_{\mathfrak{m}}|F(\alpha)|^se(-n\alpha)\,\mathrm{d}\alpha\right| &\ll \int_{\mathfrak{m}}|F(\alpha)|^{s-2^k}|F(\alpha)|^{2^k}\,\mathrm{d}\alpha \\  &\ll \mathrm{max}_{\alpha \in \mathfrak{m}}|F(\alpha)|^{s-2^k}\int^{1}_{0}|F(\alpha)|^{2^k}\,\mathrm{d}\alpha \\  &\ll P^{s-k-\delta_1}\end{aligned}$$

을 만들 수 있어요!! 여기에서

$$ \delta_1=\frac{\nu(s-2^k)}{K}-(s-2^k+1)\varepsilon>0$$

이에요.


 다음 auxiliary function을 소개할께요.

$$ \nu(\beta)=\sum^{N}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}e(\beta m)$$

$$ S(q,a)=\sum^{q}_{r=1}e\left(\frac{ar^k}{q}\right)$$

auxiliary function이란 "우리가 알고 싶은 걸 좀 더 계산이 편한 형태로 바꿔주는 함수"란 뜻이에요!! 이름만 봐도 그렇잖아요?? 아주 아름다운 함수... 그리고 저도 여기선 이것들을 어떤 motivation으로 정의했는진 잘 모르겠어요... ㄸㄹㄹ (아련)

 그러면 \(\nu(\beta)\)를 잘 appoximate하면 이렇게이렇게

$$ \nu(\beta)\ll \sum^{N}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}\ll N^{\frac{1}{k}}\ll P$$

그리고 음음

$$ \begin{aligned}\nu(\beta)&=\sum^{N}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}e(\beta m) \\ &=\sum^{N}_{m=M+1}\frac{1}{k}m^{\frac{1}{k}-1}e(\beta m)+\sum^{M}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}e(\beta m)\end{aligned}$$

이렇게 합을 나눌 거예요. 여기에서 \(M=[|\beta|^{-1}]\). 이렇게 두는 이유는 뭐 저 exponential function의 period에 맞춰서 딱 잘라준 거+앞부분은 급격하게 변하는데 뒷부분은 그에 비해선 작게작게 변하니까. 어쨌든, 첫번째 합은 \(m^{\frac{1}{k}-1}\)쪽을 합하고 \(e(\beta m)\)쪽을 미분하는 걸로 partial summation을 써주면

$$ \ll |\beta|^{-\frac{1}{k}}$$

가 되고, 두번째 합은 뭐 그냥 절댓값 안에다가 꾸역꾸역 넣고 \(m\)을 구분구적법으로 근사하면 똑같이 \(\ll |\beta|^{-\frac{1}{k}}\)가 나와요. 따라서 둘을 조합하면

$$ |\nu(\beta)|\ll \min\{|\beta|^{-1},P\}$$

를 얻을 수 있어요!!


 다음을 정의할께요.

$$ u(t)=\begin{cases}e\left(\frac{am}{q}\right)-\left(\frac{S(q,a)}{q}\right)k^{-1}m^{\frac{1}{k}-1} & \text{If }m\text{ is a }k\text{th power}\\ -\left(\frac{S(q,a)}{q}\right)k^{-1}m^{\frac{1}{k}-1}&\text{Otherwise} \end{cases}$$

왜 정의했는지 하나도 모르겠는(...) 뭔가 이상한 애지만, 애는 이게 성립해요!!

$$ \sum_{m\le t}U(t)\ll q$$

이거때문에 정의했어요. 그리고 또 partial summation을 쓰면 \(\beta=\alpha-\frac{a}{q}\)라고 하면

$$ \sum_{m\le N}u(m)e(\beta m)\ll P^{2\nu}$$

가 되고,

$$ \sum_{m\le N}u(m)e(\beta m)=F(\alpha)-\frac{S(q,a)}{q}\nu(\beta)$$

가 돼요!! 그러므로 종합하면

$$ F(\alpha)=\frac{S(q,a)}{q}\nu(\beta)+O(P^{2\nu})$$

가 만들어져요!!


 이제 저저저 singular series란 걸 정의할 차례예요!! 이렇게

$$ \mathfrak{G}(N,Q)=\sum_{1\le q\le Q}\sum^{q}_{\substack{a=1 \\ (a,q)=1}}\left(\frac{S(q,a)}{q}\right)^se\left(-\frac{Na}{q}\right)$$

왜 이름이 singular series라면, 어떤 우리가 잘 알고 있는 special function으로 나타내어지지 않으니까(...) 그저 그 뿐...

 대수정수 전공자 미지는 그저 웃지요 (...)

 그에 비해서 상대적으로 계산이 쉬어보이는(...) 다음을 볼께요.

$$ J^*(N)=\int^{P^{\nu-k}}_{P^{\nu-k}}\nu(\beta)^se(-N\beta)\,\mathrm{d}\beta$$

그렇다면 다음이 성립해요!!

$$ \int_{\mathfrak{M}}F(\alpha)^se(-N\alpha)\,\mathrm{d}\alpha=\mathfrak{G}(N,P^{\nu})J^*(N)+O(P^{s-k-\delta_2})$$

여기에서

$$ \delta_2=\frac{1-5\nu}{k}>0$$

이에요.


 그럼 우리는 저 꼴의 singular series가 왜 뜬금없이 나왔는지 알아야 하는데, 다음을 계산할께요.

$$ \begin{aligned} \int_{\mathfrak{M}(q,a)}V(\alpha,q,a)^se(-N\alpha)\,\mathrm{d}\alpha&=\int^{\frac{a}{q}+P^{\nu}}_{\frac{a}{q}-P^{\nu}}V(\alpha,q,a)^se(-N\alpha) \\ &=\int^{P^{\nu}}_{-P^{\nu}}V\left(\beta+\frac{a}{q},q,a\right)^se\left(-N\left(\beta+\frac{a}{q}\right)\right)\,\mathrm{d}\beta \\ &=\left(\frac{S(q,a)}{q}\right)^se\left(-\frac{Na}{q}\right)\int^{P^{\nu}}_{-P^{\nu}}\nu(\beta)^se\left(-\frac{aN}{q}\right)\,\mathrm{d}\beta \\ &=\left(\frac{S(q,a)}{q}\right)^se\left(-\frac{aN}{q}\right)J^*(N) \end{aligned}$$

여기에서

$$ V(\alpha,q,a)=\frac{S(q,a)}{q}\nu(\beta)$$

예요. 이거 그냥 다 더해버리면

$$ \int_{\mathfrak{M}}F(\alpha)^se(-N\alpha)\,\mathrm{d}\alpha=\mathfrak{G}(N,P^{\nu})J^*(N)+O(P^{s-k-\delta_2})$$

가 돼요. 여기에서 error term은 \(|S(q,a)|\le q\)에서 \(|F(\alpha)|,|V(\alpha,q,a)|\ll P\)가 나오고 여기에서

$$ \begin{aligned}|F(\alpha)^s-V(\alpha,q,a)^s|&=|F(\alpha)-V(\alpha,q,a)||F(\alpha)^{s-1}+F(\alpha)^{s-2}V(\alpha,q,a)+\cdots+V(\alpha,q,a)^{s-1}) \\ &\ll P^{2\nu}P^{s-1}\ll P^{s-1+2\nu}\end{aligned}$$

으로 이걸 적분 안으로 넣어주면

$$ \begin{aligned}\int_{\mathfrak{M}}|F(\alpha)^s-V(\alpha,q,a)^s|\,\mathrm{d}\alpha\ll \mu(\mathfrak{M})P^{s-1+2\nu}\end{aligned}$$

가 나와요. 여기에서 \(\mu(\mathfrak{M}\)은 \(\mathfrak{M}\)의 measure인데, 그냥 \(\mathfrak{M}(q,a)\)들의 disjoint니까 다 더해주면

$$ \mu(\mathfrak{M})\ll P^{3\nu-k}$$

가 나오고, 종합하면 error term은 \(\ll P^{s-k-1-5\nu}\)가 돼요. 이제 \(\delta_2=1-5\nu\)로 잡으면 되겠지요?? 여기에서 \(0<\nu<\frac{1}{5}\)로 잡은 이유가 또 나온다 (...)


 다음으로 할 것은 \(J^*(N)\)의 계산인데, 먼저 계산이 더 쉬운 것 같은 다음 식을 볼께요.

$$ J(N)=\int^{\frac{1}{2}}_{-\frac{1}{2}}\nu(\beta)^se(-\beta N)\,\mathrm{d}\beta$$

그렇다면 \(\nu(\beta)\)는 저번에 한 계산으로 \(\ll |\beta|^{-1}\)인데, 그렇기 때문에 \([-P^{\nu},P^{\nu}]\) 밖에서는 값이 그렇게 크지 않아요!! 그렇기 때문에 다음이 성립해요.

$$ J^*(N)=J(N)+O(P^{s-k-\delta_3})$$


 대충 구분구적법을 쓰면 다음도 함께 만들 수 있어요.

$$ \sum^{N}_{m=1}m^{\beta-1}(N-m)^{\alpha-1}=N^{\alpha+\beta-1}\frac{\Gamma(\alpha)\Gamma(\beta)}{\Gamma(\alpha+\beta)}+O(N^{\alpha-1})$$

그냥

$$ g(x)=x^{\beta-1}(N-x)^{\alpha-1}$$

라고 하면 \(\alpha>1\)로 대충 직사각형 그리기로

$$ \int^{N}_{1}g(x)\,\mathrm{d}x\le \sum^{N}_{m=1}m^{\beta-1}(N-m)^{\alpha-1}\le \int^{N-1}_{1}g(x)\,\mathrm{d}x$$

가 되고, 양변의 적분 차이가 \(O(N^{\alpha-1})\)임을 그냥 계산으로 보여주면 되겠죠?? 나머지 case는 local maximum 찾고 짜증나는 노가다를 해야 해요(...)


 다음은 이것을 증명할텐데

$$ J(N)=\Gamma\left(1+\frac{1}{k}\right)^s\Gamma\left(\frac{s}{k}\right)^{-1}N^{\frac{s}{k}-1}+O\left(N^{\frac{s-1}{k}-1}\right)$$

Nathanson에선 이걸 induction(!!)으로 증명하고 있어요. 뭐...뭐야. 그렇다면 이거 하나하나 다 손깨지게 계산해봤다는 거잖앜ㅋㅋㅋㅋㅋㅋㅋㄱㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㄱㅋㅋㅋㅋ 무서워...

 어...어쨌든... induction을 써보도록 할께요(...)

 \(s=2\)일 땐

$$ \nu(\beta)^2=k^{-2}\sum_{m_1\le N}\sum_{m_2\le N}(m_1m_2)^{\frac{1}{k}-1}e((m_1+m_2)\beta)$$

고, 이걸 \(J(N)\)에다가 그대로 대입하면

$$ \begin{aligned} J(N)&=\int^{\frac{1}{2}}_{-\frac{1}{2}}\nu(\beta)^2e(-\beta N)\,\mathrm{d}\beta \\ &=k^{-2}\sum_{\substack{m_1\le N \\ m_2\le N}}(m_1m_2)^{\frac{1}{k}-1}\int^{\frac{1}{2}}_{-\frac{1}{2}}e((m_1+m_2-N)\beta)\,\mathrm{d}\beta\\ &=k^{-2}\sum_{m_1+m_2=N}(m_1m_2)^{\frac{1}{k}-1} \\ &=k^{-2}\sum^{N}_{m=1}m^{\frac{1}{k}-1}(N-m)^{\frac{1}{k}-1} \\ &=\frac{\Gamma\left(1+\frac{1}{k}\right)}{\Gamma\left(\frac{2}{k}\right)}N^{\frac{2}{k}-1}+O\left(N^{\frac{1}{k}-1}\right)\end{aligned}$$

가 돼요.

 다음은 저 이상하게 생긴 식을 어떻게 예측했을지 전혀 알 수 없는 걸 inductive hypothesis로 가정하는 건데, 저 식을 보면 볼수록 제가 아무리 식의 크기를 조절하는 능력이 좋다고 해도 Vinogradov보단 심각하게 딸리다는 생각을 많이 하게 되네요... ㄸㄹㄹ

 어쨌든, \(s\)일 때 성립한다고 가정하고 \(s+1\)의 case를 볼께요.

$$ \begin{aligned} J(N)&=\int^{\frac{1}{2}}_{-\frac{1}{2}}\nu(\beta)^{s+1}e(-N\beta)\,\mathrm{d}\beta \\ &=\int^{\frac{1}{2}}_{-\frac{1}{2}}\nu(\beta)\nu(\beta)^se(-N \beta)\,\mathrm{d}\beta \\ &=\int^{\frac{1}{2}}_{-\frac{1}{2}}\sum^{N}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}e(\beta m)\nu(\beta)^s e(-N \beta)\,\mathrm{d}\beta \\ &=\sum^{N}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}\int^{\frac{1}{2}}_{-\frac{1}{2}}\nu(\beta)^se(-(N-m)\beta)\,\mathrm{d}\beta \\ &=\frac{\Gamma\left(1+\frac{1}{k}\right)^s}{\Gamma\left(\frac{s}{k}\right)}\sum^{N}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}(N-m)^{\frac{s}{k}-1}+O\left(\sum^{N-1}_{m=1}\frac{1}{k}m^{\frac{1}{k}-1}(N-m)^{\frac{s-1}{k}-1}\right) \\ &=\frac{\frac{1}{k}\Gamma\left(\frac{1}{k}\right)\Gamma\left(\frac{s}{k}\right)}{\Gamma\left(\frac{s+1}{k}\right)}\frac{\Gamma\left(1+\frac{1}{k}\right)^s}{\Gamma\left(\frac{s}{k}\right)}N^{\frac{s+1}{k}-1}+O\left(N^{\frac{s}{k}-1}\right)\\ &=\frac{\Gamma\left(1+\frac{1}{k}\right)^{s+1}}{\Gamma\left(\frac{s+1}{k}\right)}N^{\frac{s+1}{k}-1}+O\left(N^{\frac{s}{k}-1}\right)\end{aligned}$$

가 되고, 증명이 끝나요!!

 

 다음을 정의할께요.

$$ \mathfrak{G}(N)=\sum^{\infty}_{q=1}=\lim_{Q\to \infty}\mathfrak{G}(N,Q)$$

여기에서

$$ A_N(q)=\sum^{q}_{\substack{a=1 \\ (a,q)=1}}\left(\frac{S(q,a)}{q}\right)^se\left(-\frac{Na}{q}\right)$$

예요. 그렇다면 저 수렴하는 속도는 대충 이렇게 나타나요.

$$ \mathfrak{G}(N,P^{\nu})=\mathfrak{G}(N)+O(P^{-\nu\delta_4})$$

증명은 많이 쉬워요. 그냥

$$ 0<\varepsilon<\frac{1}{sK}$$

라고 하면 \(s\ge 2K+1\)에서

$$ \delta_4=\frac{1}{K}-s\varepsilon>0$$

을 정의할 수 있게 되고, Weyl's inequliaty로

$$ S(q,a)\ll q^{1-\frac{1}{K}+\varepsilon}$$

이고, 이걸로 뭐 통계산해주면 되겠지 (...)


 남은 건 다음이에요. \(N\)에 의존하지 않는 적당한 두 상수 \(c_1,c_2>0\)이 있어서

$$ c_1<\mathfrak{G}(N)<c_2$$

라는 거. 이거 계산은 Nathanson 왈 "초등적이고 멋진 증명"이라는데 그건 Nathanson 니 생각이고(...) 대충 개요만 말할께요.

 먼저 \((q,r)=1\)일 때

$$ S(qr,ar+bq)=S(q,a)S(r,b)$$

임을 증명해요. 이거 증명은 조금 계산인데, 중나정을 생각하면 쉬워요. 그리고

$$ A_{N}(qr)=\sum^{qr}_{\substack{q=1 \\ (c,qr)=1}} \left(\frac{S(qr,c)}{qr}\right)^se\left(-\frac{cN}{qr}\right)$$

를 생각하고 \(c\)를 중나정으로 나누고 위에서 증명한 걸 생각하면 \((q,r)=1\)일 때

$$ A_{N}(qr)=A_N(q)A_N(r)$$

을 증명할 수 있어요. 그러니까, \(A_N\)은 곱셈적이에요!!

 이 쯤에서 저 \(\mathfrak{G}(N)\)을 본다면, 해석적 정수론에서 많이 하는 그 소수로 나누기로

$$ \chi_N(p)=1+\sum^{\infty}_{n=1}A_{N}(p^n)$$

을 생각하면 될 것 같아요!!

 \(A_N(q)\)는 \(q\)가 충분히 많이 크면 \(0\)으로 가요. 정확히는

$$ A_N(q)\ll \frac{1}{q^{1+\delta_4}}$$

가 성립해요. 이걸 생각해서, \(\chi_N(p^n)\)에서 \(p\)가 충분히만 크면 저 \(\chi_N(p)\)를 \(1\)에 완전 가깝게 만들 수 있어요!! 직접 계산해보면

$$ \chi_N(p)=1+O\left(\sum^{\infty}_{n=1}\frac{1}{p^{n+n\delta_4}}\right)=1+O\left(\frac{1}{p^{1+\delta_4}}\right)$$

가 되는데,

$$ \mathfrak{G}(N)=\prod_{p}\chi_N(p)$$

일 테고, 그러면 \(\mathfrak{G}(N)\)은 뭔진 모르지만 Riemann zeta function의 Euler product같이 생기지 않았나요?? 저 \(\delta_4\)하고 big oh는 \(N\)하고 상관 없으니까 적당한 \(C\)가 존재해서 \(p_0\)를 \(\chi_N(p)>0\) for all \(p>p_0\)가 되는 최초의 소수라고 하면

$$ \prod_{p\le p_0}\chi_{N}(p)\prod_{p>p_0}\left(1-\frac{C}{p^{1+\delta_4}}\right)\le \mathfrak{G}(N)$$

이 되고, \(C\)는 \(\delta_4>\delta_5>0\)를 잡고 \(p_1\)을

$$ C<p^{\delta_5}$$

for all \(p>p_1\)이 되도록 잡는다면 이건 다시

$$ \prod_{p\le p_0}\chi_N(p)\prod_{p_0<p\le p_1}\left(1-\frac{C}{p^{1+\delta_4}}\right)\prod_{p>p_1}\left(1-\frac{1}{p^{1+\delta_4-\delta_5}}\right)$$

가 되고, 모두 확실히 \(0\)보다 커요!! 남은 건 모든 \(p\)에 대해서 \(\chi_N(p)\)가  \(N\)에 상관 없이 적당한 \(c\)가 있어서 \(0<c<\chi_N(p)\)라는 건데, 이거, 진정으로 더러운 부분이라 sketch도 생략할께요(...) 대충 말하면, \(A_N(q)\)를 어떤 합동방정식의 해의 갯수와 연관시키고 Hensel's lemma 몇 번 때리는 거예요. 개인적으로 합동방정식하고 연관시키는 걸 어떻게 생각하는지 모르겠어서(...) 영 그렇긴 한데... 그냥 제가 Vinogradov보다 멍청한가 봐요... ㄸㄹㄹ \(S(q,a)\) 모양때문에 그렇게 생각한 건가. 모르겠다 헤헿<<


 어쨌든, 모든 계산을 정리하면 이렇게 돼요!! \(\delta_0=\mathrm{min}\{\delta_1,\delta_2,\delta_3,\nu(\delta_4-\delta_5)\}\)라고 하면

$$ \begin{aligned}r_{k,s}(N)&=\int^1_0 F(\alpha)^se(-N\alpha)\,\mathrm{d}\alpha \\ &=\int_{\mathfrak{M}}F(\alpha)^se(-\alpha N)\,\mathrm{d}\alpha+\int_{\mathfrak{m}}F(\alpha)^se(-\alpha N)\,\mathrm{d}\alpha \\ &=\mathfrak{G}(N,P^{\nu})J^*(N)+O(N^{s-k-\delta}) \\  &=\mathfrak{G}(N)J(N)+O(P^{s-k-\delta})=\cdots\end{aligned}$$

gamma function 쓰기 귀찮아(...) 어쨌든 다 정리하고 \(\delta=\frac{\delta_0}{k}\)라고 하면 끝나요!!


 다음엔... 충분히 큰 홀수에 대한 약한 골드바흐의 추측을 증명...할 지는 모르겠네요 (...)