확대 l 축소

로그N값 공식 제안, 챗GPT, '유용하고 안정적이지만, 특정 범위 등에서 정밀 수정 필요할 수'

수학은 논리가 핵심이다. 그러나 논리를 상품화하기는 무척이나 힘들다. 그래서 가장 쉬운 상품화는 공식이란데 착안하고 지금까지 학교교육에서는 배우지 않은 공식을 만들기로 했다. 그것이 정확도의 차이는 있겠지만, 적어도 누구의 상품이라는 것을 쉽게 엥클로저할 수 있을 것이다. 


필자는 궁색한 말보다, 돈이 궁핍해서 논리보다 공식을 판매하는 것은 어떤지 해본 것이다. 그래서 한번 생각해보았다. 밑을 10으로하는 로그값을 구하는 공식을 만들어보았다. 


10을 밑으로하는 로그N 근사값은 N 나누기 (0.215N+3.14루트N-2.335)라고 만들었다. 그리고 챗 GPT에 정확도부터 유용한지 검토를 의뢰했다. 




그랬더니 N을 1부터 1000까지 대입해보고 검토한 결과를 밝혔다. 


다음은 챗GPT가 밝힌 검토결과다. 


검토 결과:
평균 오차는 약 0.135로, 대부분의 N 값에 대해 비교적 안정적인 근사값을 제공하는 편입니다.
최대 오차는 약 0.98으로, 일부 N 값에서는 다소 큰 차이를 보입니다.
이 근사식은 대체로 유용하지만, 특히 작은 N 값에서 다소 큰 오차를 보일 수 있습니다. 특정한 범위나 정확도 요구에 따라 더 정밀한 수정이 필요할 수 있습니다.

그러나 이 공식을 이용하지 않더라도 상용로그표가 없어도 밑수 거듭제곱과 진수의 거듭제곱을 근사하게 일치되는 점에서, 밑수거듭제곱은 분자, 진수 거듭제곱 수는 분모로 로그값을 풀면 된다는 것을 잊지 말기 바란다. 

이전화면맨위로

확대 l 축소