Programing

인지 할 수있는 가장 짧은 애플리케이션 응답 지연은 무엇입니까?

lottogame 2020. 10. 27. 07:45
반응형

인지 할 수있는 가장 짧은 애플리케이션 응답 지연은 무엇입니까?


사용자 작업과 응용 프로그램 응답 사이에는 항상 지연이 발생합니다.

응답 지연이 낮을수록 즉각적으로 응답하는 애플리케이션의 느낌이 커진다는 것은 잘 알려져 있습니다. 일반적으로 최대 100ms의 지연은 일반적으로 감지되지 않는 것으로 알려져 있습니다. 하지만 110ms의 지연은 어떻습니까?

인지 할 수있는 가장 짧은 애플리케이션 응답 지연은 무엇입니까?

확실한 증거, 일반적인 생각 및 의견에 관심이 있습니다.


제가 기억하는 것은 문자를 입력 한 후 글자가 나타나는 데 1/10 초 (100ms) 이상의 지연이 생산성에 부정적인 영향을 미치기 시작한다는 것입니다 (예를 들어, 본능적으로 속도가 느려지고 올바르게 입력했는지 확신하지 못함). 그러나 그 수준 이하의 지연 생산성은 본질적으로 평평합니다.

이러한 설명을 감안할 때 지연 시간이 100ms 미만이면 즉각적이지 않은 것으로 인식 있지만 (예를 들어 훈련 된 야구 심판은 아마도 100ms보다 더 가까운 두 이벤트의 순서를 해결할 수 있음) 고려할 수있을만큼 빠릅니다. 생산성에 미치는 영향에 대한 피드백에 대한 즉각적인 응답. 100ms 이상의 지연 시간은 여전히 상당히 빠르더라도 확실히 인식 할 수 있습니다.

특정 입력이 수신되었다는 시각적 피드백을위한 것입니다. 그런 다음 요청 된 작업에 대한 응답 표준이 있습니다. 양식 버튼을 클릭하는 경우 100ms 이내에 해당 클릭에 대한 시각적 피드백 (예 : 버튼이 "눌린"모양으로 표시됨)을받는 것이 여전히 이상적이지만 그 이후에는 다른 일이 발생할 것으로 예상됩니다. 다른 사람들이 말했듯이 1 ~ 2 초 내에 아무 일도 일어나지 않으면 클릭이 발생했는지 무시했는지 정말 궁금합니다. 따라서 작업이 1 초 이상 걸릴 수있을 때 일종의 "작동 중 ..."표시기를 표시하는 표준이됩니다. 명확한 효과를 표시하기 전에 (예 : 새 창이 나타날 때까지 대기).


100ms 임계 값은 30 년 전에 설정되었습니다. 보다:

Card, SK, Robertson, GG 및 Mackinlay, JD (1991). 정보 시각화 도우미 : 정보 작업 공간. Proc. ACM CHI'91 Conf. (뉴 올리언스, LA, 4 월 28 일 ~ 5 월 2 일), 181-188.

Miller, RB (1968). 사람-컴퓨터 대화 트랜잭션의 응답 시간. Proc. AFIPS 가을 합동 컴퓨터 컨퍼런스 Vol. 33, 267-277.

Myers, BA (1985). 컴퓨터-휴먼 인터페이스에 대한 완료율 진행률 표시기의 중요성. Proc. ACM CHI'85 Conf. (캘리포니아 주 샌프란시스코, 4 월 14-18 일), 11-17.


2014 년 1 월 현재 새로운 연구 :

http://newsoffice.mit.edu/2014/in-the-blink-of-an-eye-0116

... MIT의 신경 과학자 팀은 인간의 뇌가 눈이 보는 전체 이미지를 13 밀리 초 동안 처리 할 수 ​​있음을 발견했습니다 ...이 속도는 이전 연구에서 제안한 100 밀리 초보다 훨씬 빠릅니다 ...


일화 나 의견이 여기에 대한 답변에 실제로 유효하지 않다고 생각합니다. 이 질문은 사용자 경험과 잠재 의식의 심리에 관한 것입니다. 인간의 두뇌는 강력하고 빠르며 단 몇 밀리 초가 중요하고 등록됩니다. 나는 전문가는 아니지만 Matt Jacobsen이 언급 한 것과 같은 많은 과학이 뒤에 있다는 것을 알고 있습니다. 사이트 트래픽에 미치는 영향에 대한 아이디어는 http://code.google.com/speed/files/delayexp.pdf 에서 Google의 연구를 확인하십시오 .

Akami의 또 다른 연구-2 초 응답 시간 http://www.akamai.com/html/about/press/releases/2009/press_091409.html ( https://ux.stackexchange.com/questions/5529/once에서) -apon-a-time-there-was-a-10-seconds-to-load-a-page-rule-what-is-it-nowa )

공유 할 다른 연구가 있습니까?


샌프란시스코 오페라 하우스에서는 각 스피커에 대한 정확한 지연 설정을 일상적으로 설정했습니다. 스피커에 대한 지연 시간의 5 밀리 초 변화를 감지 할 수 있습니다. 이러한 미묘한 변경을하면 음원의 출처가 변경됩니다. 종종 우리는 사운드가 스피커가 아닌 다른 곳에서 나오는 것처럼 들리기를 원합니다. 정확한 지연 조정이 가능합니다. 15 밀리 초의 사운드 지연은 사운드 소스의 출처를 근본적으로 이동시키기 때문에 훈련되지 않은 귀에게도 매우 분명합니다. 간단한 테스트는 이것이 여러 스피커를 통해 사운드를 재생하고 피사체가 눈을 감고 사운드가 나오는 곳을 가리 키도록하는 것입니다. 이제 몇 밀리 초의 스피커 중 하나의 지연 시간을 약간 변경하고 그 사람이 소리가 나는 곳을 다시 가리 키도록합니다.


비전의 지속성은 약 100ms이므로 합리적인 시각적 피드백 지연이어야합니다. 110ms는 대략적인 값이므로 차이가 없어야합니다. 실제로는 200ms 미만의 지연을 알 수 없습니다.

내 기억에서 연구 결과에 따르면 사용자가 약 2 초 동안 활동이 없으면 (피드백이없는 상태에서) 인내심을 잃고 작업을 다시 시도하는 것으로 나타났습니다 (예 : 확인 또는 작업 버튼 클릭). 따라서 액션이 1 초 이상 걸리면 어떤 종류의 애니메이션을 사용하도록 계획하십시오.


맹목적으로 빠른 속도라는 명시적인 비즈니스 목표가있는 애플리케이션에서 작업했으며 전체 웹 페이지를 처리하는 데 허용되는 최대 서버 시간은 150ms였습니다.


확실한 증거는 없지만 자체 애플리케이션의 경우 사용자 작업과 피드백 사이에 최대 1 초를 허용합니다. 시간이 더 오래 걸리면 "대기 상자"가 표시됩니다.

사용자는 조치를 취한 지 1 초 이내에 "무언가"가 발생하는 것을 확인해야합니다.


100ms는 완전히 잘못되었습니다. 손가락, 책상, 초가 보이는 시계를 사용하여 직접 증명할 수 있습니다. 시계의 초와 동기화하여 책상에서 비트를 지속적으로 드럼 아웃하여 1 초마다 16 비트를 드럼 아웃합니다. 저는 16을 선택했습니다. 2의 배수로 드럼을 치는 것이 자연 스럽기 때문에 세 개의 약한 비트가 중간에있는 4 개의 강한 비트와 같습니다. 인접한 비트는 소리로 명확하게 식별됩니다. 비트는 약 60ms로 분리되므로 실제로는 60ms도 여전히 너무 높습니다. 따라서 임계 값은 특히 사운드와 관련된 경우 100ms 미만입니다.

예를 들어 드럼 앱이나 키보드 앱은 30ms 정도의 지연이 필요합니다. 그렇지 않으면 사운드가 스피커에서 나오기 훨씬 전에 물리적 버튼 / 패드 / 키에서 나오는 소리가 들리기 때문에 정말 짜증납니다. ASIO 및 jack과 같은 소프트웨어는이 문제를 해결하기 위해 특별히 제작되었으므로 변명의 여지가 없습니다. 드럼 앱에 100ms 지연이 있으면 미워할 것입니다.

VoIP 및 고성능 게임의 상황은 실제로 더 나쁩니다. 왜냐하면 이벤트에 실시간으로 반응해야하고 음악에서는 적어도 조금이라도 미리 계획을 세워야하기 때문입니다. 인간의 평균 반응 시간이 200ms 인 경우 추가 100ms 지연은 엄청난 불이익입니다. VoIP의 대화 흐름을 눈에 띄게 변경합니다. 게임에서 200ms의 반응 시간은 특히 플레이어가 연습을 많이하는 경우 넉넉합니다.


시각적 공간 해상도에 대해 이중 테스트를 사용합니다 (두 개의 평행 한 검은 색 막대, 너비가 같고 간격이 같음. 한 줄이 될 때까지 즉, 축소하거나 단순히 이동하는 것처럼 보일 때까지 각 부분 시제를 줄이십시오.) 한 줄로 병합되어 임계 값을 보여줍니다.

기능 gen을 사용하여 일정 간격 동안 LED를 깜빡 인 다음 꺼짐, 켜짐, 꺼짐 --- 각 간격마다 동일한 시간 지연이 있지만 점차적으로 지연을 줄이면서 패턴을 반복합니다. 따라서 위와 동일하지만 공간 대신 ​​시간 . 다음과 같은 오실로스코프 이미지를 상상해보십시오.

_________/^d^\_d_/^d^\_________

41ms 간격에서는 한 번 더 긴 깜박임 만 인식하지만 42ms에서는 매우 빠른 이중 깜박임으로 인식합니다. 따라서 임계 값은 ~ 42ms입니다. 아마도 사람, 나이, 상태 등에 따라 달라질 것입니다.

이것은 24fps에 가깝습니다. 이것이 아마도 영화가 그 프리젠 테이션 속도로 작동하는 이유 일 것입니다.

무언가를보고 반응을 결정하는 반응 시간 (예 : 마우스 클릭 등)이 훨씬 더 길어집니다. 따라서 측정을 위해 반응 반응이 필요한 실험이 더 긴 시간을 산출한다는 것은 놀라운 일이 아니지만, 더 긴 지연이 요청한 것이 아니었고 위의 실험이 쉽고 밝습니다!

그러나 부드럽게 움직이는 애니메이션은 시각적 피질이 더 열심히 작동하여 시각적 이해를 지연시킵니다. 이 지연은 지각에서 '숨겨져'있으므로 움직이기 때문에보기 어려운 것을 제공함으로써 더 긴 지연 (수 백 ms)을 '숨길'수 있습니다.

The effect that hides it is called Chronostasis. Basically, glancing somewhere 'new' requires the visual cortex to work harder to 'de-render' / 'recognise' the scene. This takes a remarkably long time, during which your consciousness is essentially 'paused'.

Once looking at a mostly-constant scene, only changes need this processing, so smaller/faster changes are possible and your perceptual experience resumes, and faster/smaller movements are detectable.

The detection of changes visually is processed basically on your retina. Your eyes also have a natural 'bandpass' response -- stare unblinkingly at anything for sufficient time, and at sufficient distance for saccades to be unable to change the image much, and you will find your visual feed fading out to 'grey'. This is what gives us our 'white balance', and is somewhat similar to the automatic gain control on analogue radio/tv.

The point is, that your eyes themselves have a time constant to respond, but this is actually dependant on the strength of the stimulus. (brightness of the LED, for our case).

Too bright, and the ability of your retinal cells to 'relax' back from the brightness, ie, respond to the 'sudden dark', is compromised.

The effect which keeps you seeing bright things after the light has stopped is called 'persistence of vision', and old cathode-ray picture tubes more or less depend heavily on it for them to work at all.

This is the one that's usually 100 ms or so, but it's not a 'sharp' interval -- more like a exponential roll-off, and again -- changes duration depending on how bright the stimulus is relative to how dark-adjusted (ie, sensitive) the eye is at that moment.

For duller, faster changes, especially changes outside your fovea, you will perceive even higher rates easily. Eg, flickering lights. Those outer parts of your retina (most of the area, actually) are adapted to detecting movement, and bringing it to your attention. So it makes sense that although lacking spatial resolution, they have greater time resolution / shorter response rate.

But this also means animating things usually requires even finer time steps, otherwise 'jumpiness' is perceptible, mostly due to that faster response.

Note all the scaling/sliding full screen animations iOS uses -- these essentially exploit chronostasis to hide technically unavoidable loading delays, giving the perception that those products respond instantly and smoothly at all times.

So, show something different within 42 ms -> instant response. Keep animating otherwise useless hard-to-see-properly visuals continuously at high frame rates, then stop suddenly when done -> hides the delay so long as enough is visually busy, and the delay isn't too long. (probably 250ms is pushing the friendship).

This also seems to tee up with other's perceptions of input lag, for example : http://danluu.com/input-lag/


I am a cognitive neuroscientist who studies visual perception and cognition.

The paper by Mary Potter mentioned above regards the minimum time required to categorize a visual stimulus. However, understand that this is under laboratory conditions in the absence of any other visual stimuli, which certainly would not be the case in the real world user experience.

The typical benchmark for a stimulus-response / input-stimulus interaction, that is, the average amount of time for an individuals minimum reaction speed or input-response detection is ~200ms. to be certain there is no detectable difference, this threshold could be lowered to around 100ms. Below this threshold, the temporal dynamics of your cognitive processes take longer to compute the event than the event itself, so there is nearly no chance of any ability to detect or differentiate it. You could go lower to say 50 ms, but it really wouldn't be necessary. 10 ms and you've gone into the territory of overkill.


For a reasonably current scholarly article, try out How Much Faster is Fast Enough? User Perception of Latency & Latency Improvements in Direct and Indirect Touch (PDF). While the main focus was on JND (Just Noticeable Difference) of delay, there is some good background on on absolute delay perception and they also acknowledge and account for 60Hz monitors (16.7 ms repaint times) in their second experiment.


For web applications 200ms is considered as unnoticable delay, while 500ms is acceptable.

참고URL : https://stackoverflow.com/questions/536300/what-is-the-shortest-perceivable-application-response-delay

반응형