관측 데이터가 싫어진다
By 로그온티어의 혼란스런 세계관 | 2018년 3월 18일 |
요즘 컨텐츠 뷰어 사이트들은 리뷰를 쓰면 취향을 분석해서 취향에 맞을 만한 컨텐츠를 권유해줍니다. 근데 늘 번번이 맞지 않았습니다. 권유하는 것들이 맞을 때도 있지만, 아닐 때도 있는데, 그냥 대강 50대50입니다. 어느 날, '취향가이드'는 제가 잊고 있었지만 좋아했던 작품을 꺼내다줘서 놀라기도 하지만 어느 때는 제가 혐오하는 작품을 가지고 와서 놀라기도 합니다. 개인의 선택(리뷰, 평점)에 따라 알 수 있는 작품의 호감도와 빅데이터를 통해 이런 장르를 좋아하는 유저들이 대게 어떤 선택을 하는 지를 선택하는 분석임은 압니다. 그리고 대체로는 맞아 떨어지기에 데이터 데이터 데이터분석은 성공적 데이터는 훌륭해라며 수염을 쓰다듬고 있을 기획자들의 마인드도 이해가구요. 근데 문제는, 제가 작품에 호감을
5G가 제 속도가 나온다면 벌어지는 일
By 자그니 블로그 : 거리로 나가자, 키스를 하자 | 2020년 9월 28일 |
지난 8월부터, 일부 지하철 구간에서 5G 를 쓸 수 있게 됐습니다. 오늘 별 생각없이 지하철 기다리다가, 여기도 5G 되네? 하면서 속도나 한번 체크해보자고 돌린 순간... 깜짝 놀랐네요. 역에 사람이 별로 없긴 했는데, 제대로 나오면 진짜 어마어마한 속도가 나오는 군요. 저것도 제 속도라고 하긴 어렵지만... 다만, 문제가 있습니다. 이랬던 적이 한번도 없어서 신경 안썼는데, 벤치마크 몇 번 돌렸을 뿐인데 데이터를 쫘~~~악 뽑아 먹고 갔습니다. 약 1.1Gbps면 초당 100M는 넘게 데이터를 받는단 얘기니, 10초에 1GB... 그런 거였어요. 5G가 진짜 제 속도만 나와준다면, 유선 인터넷을 대치하려고 나왔다는 말이 농담이 아니긴 할 듯 합니다. 그리고 우리
리눅스에서 ZFS 데이터 무결성 검사
By 반달가면 | 2018년 6월 26일 |
ZFS 설치, zpool 생성, 파일 시스템 생성 등 기본적인 작업은 이전 게시물을 참고하자. 여기로 ZFS에 저장된 데이터에 자주 접근할 경우에는 입출력 과정에서 오류를 자동으로 수정하기 때문에 별 문제가 없지만, 아주 가끔씩 접근하는 데이터의 경우에는 긴 시간동안 해당 데이터의 검증이 이루어지지 않은 채 방치될 수 있다. 이런 상황을 고려해서 수동으로 모든 데이터를 읽어서 무결성을 검증하고 오류를 수정하는 기능이 바로 scrub이다. 예를 들어 my_test_pool이라는 zpool에 대해 scrub 작업을 하려면 터미널창에서 아래와 같이 입력한다. 현재 사용중인 zpool에 대해 수행해도 문제가 없으므로 부담 없이 수행해도 된다. # my_test_pool에 scrub 작업 시작 su
HDR의 함정 - 감당하기 어려운 데이터 용량의 폭증
By 천하귀남의 工子 天下之大福! | 2017년 2월 7일 |
현재로 HDR은 말은 무성해도 실제 이것의 표준과 적용된 콘텐츠는 지지 부진합니다. 헌데 이 HDR에서 한가지 문제가 더 있는데 바로 데이터 용량이 2배는 더 필요하다는 부분입니다. 색상정보 자체가 10~12비트로 늘어나고 데이터역시 너무 과한 압축으로 색상정보를 손실시킬수 없으니 당연히 용량이 늘어나게 되니 당연한 문제입니다. 문제는 앞으로 더 늘어날 해상도와 프레임입니다. 지금도 4K로 해상도가 늘어나는 중이고 이러면 데이터가 4배는 늘어납니다. 여기에 60프레임으로 프레임을 늘리면 이것도 데이터 2배는 필요합니다. 차기 압축기술인 HEVC가 있지만 이것도 최대 50%의 향상일 뿐이니 데이터가 몇 갑절로 불어나면 아주 간단히 상쇄되 버립니다. 이러니 4K HDR콘텐츠는 일반적으로도