menu

Overig / Algemeen / HDTV

zoeken in:
avatar van wiiplayer
Ik heb een HDMI kabel.
Maar volgens mij ligt het ook wel aan de tv want toen ik een blu-ray keek zag ik soms ook wat blur als iemand snel bewoog bijvoorbeeld. Toen ik The Matrix op DVD keek heb ik niks gemerkt.

RomeX
@wiiplayer

Elk Tv is anders, dus ik kan niets zeggen.
Alleen op automatisch zetten zou misschien een verschil maken.
Is het dan heel erg of valt het wel mee?
(tijdens gamen vooral)

avatar van wiiplayer
Ik heb al iets ontdekt. Bij de beeldinstellingen van de TV staat "Effect" die stond op hoog. Nu heb ik hem op gemiddeld gezet en is die blur al bijna verdwenen maar ik geloof dat het nu wel iets minder vloeiend is?

Moet ik hem trouwens op 100 hz laten of op filmmodus?

avatar van wiiplayer
Oké
Ik heb nu de volgende instellingen gehanteerd:

Backlight: 35
Contrast: 48
Brightness: 43
Sharpness: 5
Colour: 50
Color temperature: Warm
Tint: 0
Noise reduction: Off
Flesh tone: Off
DCR: Off

Ik heb dit op internet gezocht en aangepast. Er stond ook dat iets van filmmodus maar ik laat hem mooi op 100 hz staan. Dat ziet er mooier uit.
Het effect hou ik op gemiddeld. Op hoog krijg je die vlekken (Blur)

RomeX
Ben blij dat het toch een beetje opgelost is .
Ik kan nog maar 1 ding zeggen : veel plezier !

avatar van wiiplayer
Thanks. Het voordeel is dat nu dat vieze blur gedoe weg is. De achtergrond is nu wel weer iets vager omdat het effect omlaag moest. Maar dat heb ik wel wat liever.

Volgens mij heeft Uncharted sowieso dat de achtergrond vager word als je de camera draait.

Ravnoss
In de regel kan je het beste alle hippe foefjes van je TV uit zetten. Ze zijn er vooral om slechte beeldbronnen zoals analoge TV beter te maken, echter stuurt je PS3 alles op hoge kwaliteit uit (1080p/720p), verder zou ik ook je Sharpness nog een dot naar beneden doen. Geeft alleen maar onnatuurlijke lijnen bij hoge kwaliteit beelden.

avatar van Nomak
Als je game mode op je tv hebt dan moet je die uiteraard ook aanzetten tijdens het gamen. Het beeld kan er dan een heel klein beetje slechter uitzien, maar daar merk je toch amper iets van. En je spel speelt veel beter.

avatar van wiiplayer
Game Mode heb ik niet op deze.

Ik heb Persoonlijk, standaard, film en nog wat maar als ik iets van die backlight of sharpness aanpas gaat ie gelijk naar persoonlijk.

Maar ik ga even kijken of ik hem op 100hz laat staan of op filmmodus. Volgens mij is die eerste nog wel beter.

avatar van wiiplayer
En dat van die scherpte zal ik uit proberen.

avatar van Rujar
100hz bij video games heeft geen zin. Het doet ook niks volgens mij. De TV maakt bij 100hz een buffer van een extra frame om het soepeler te laten lopen. Een problem echter icm gaming is dat om de bewerking te kunnen uitvoeren een aantal frames worden gebufferd zodat er een synchronisatie probleem gaat ontstaan met het geluid en de actie van het spel. Je bent immers al afgeknald terwijl jouw monitor de beelden nog aan het schrijven is. Mits er inmiddels games op 100hz kunnen draaien natuurlijk.

Bij films wel. Persoonlijk vind ik dat ook wel mooi effect hebben.

avatar van WeZet
Games kunnen absoluut op 100 Hz draaien. Geen console-games aangezien die op 30 of 60 FPS/Hz gelimiteerd worden. Pc games wel, maar de dan moet de videokaart wel 100 fps uitspuwen wil het overeenkomen (en v-sync aan). Een verversingssnelheid van 100 tegenover de gebruikelijke 60 zal aardig wat mensen misselijk maken, wereld van verschil. Maar wel een ervaring!

avatar van wiiplayer
Ik heb hem alleen voor de PlayStation 3.

Ik heb vandaag een andere HDMI Kabel gekocht. Ik had eerst zo'n goedkope van 15 euro maar nu heb ik een Monster Cable. De 400 serie.

Omdat ik bij BCC werk mocht ik hem kopen voor 1 euro terwijl hij eerst iets van 120 euro was

Hij is dat geld echter niet waard! De kleuren zijn mooier, het is wat scherper maar om daar nou zoveel geld voor neer te leggen. Ik vind het wel erg mooi nu.

Ravnoss
Lol. Je kleuren worden echt niet mooier en het beeld niet scherper van een duurdere HDMI kabel. Alles over de HDMI kabel is digitaal, je hebt dus of wel of geen signaal. Wel beeld of geen beeld. Wel een rode Pixel of niet. Maar dus niet dat je Pixel ipv vuurrood op eens fletser is. Dat betere beeld zit echt tussen je oren .

(Bij hele lange afstanden kan er overigens wel eens packetloss optreden bij slecht geshielde kabels, maar dat is hier niet relevant .)

avatar van wiiplayer
Nee ik vind de kleuren wel duidelijk mooier hoor

Ravnoss
. Dat kan dus niet. Om het even in perspectief te zetten: Denk je dat wanneer je foto's van je camera via USB naar de computer overzet, de foto's mooier zijn als je een betere USB kabel gebruikt? Of als je een film van je externe harde schijf afspeelt op de computer, dat het dan uitmaakt voor het beeld met wat voor USB kabel de harde schijf is aangesloten?
Nee natuurlijk geloof je dat niet. Waarom dan wel bij een HDMI kabel? Dat is precies hetzelfde digitale signaal.

avatar van Rujar
Klopt wat hij zegt


Nu de marges op een HDTV of HD camcorder teruglopen hebben sommige detailhandelaren een manier gevonden om producten te verkopen met een zeer hoge winstgevendheid: extreem dure HDMI kabels.

Helaas is de kennis bij de consument over HD TV en verwante producten nog steeds minimaal en daar wordt door de winkeliers slim op ingespeeld onder het motto "koop vooral een dure HDMI kabel". Wij zetten grote vraagtekens bij deze ontwikkeling en we hebben tot nu toe geen zichtbare verschillen kunnen ontdekken tussen de schreeuwend dure en fraai verpakte kabels van bijvoorbeeld Monster cable en zorgvuldig gefabriceerde 5 tot soms wel 30 maal goedkopere kabels. Dat laatste geldt vooral bij kabels met een beperkte lengte maar juist die zijn het meest populair.

Vara's Kassa heeft soortgelijke ervaringen opgedaan bij een onderzoek naar verschillen bij HDMI kabels van 1,5 meter varierend in prijs van 4 Euro tot maar liefst 140 Euro.

De conclusie van vier studenten Elektrotechniek was dat alle drie onderzochte HDMI kabels optimaal functioneerden. Hun conclusie was dan ook dat een betaalbare korte HDMI kabel zeker zo goed was als een extreem dure kabel. Verschillen werden pas duidelijk bij kabels met een lengte van meer dan 5 meter en dat is een lengte die zelden aangeschaft wordt door kopers van een HDTV.

Ook werd door het onderzoek de mythe van de gouden stekkers onderuit gehaald omdat vergulde stekkers eigenlijk alleen zinvol zijn bij een analoog signaal. HDMI wekt met een puur digitale overdracht van het signaal.

"Aan gouden stekkers heb je niet zoveel. Gouden stekkers gaan oxidatie tegen en zorgen voor een betere geleiding. Betere geleiding is vooral belangrijk bij een analoog signaal zoals bij dure audio-apparatuur. HDMI maakt gebruikt van een digitaal signaal. Dan heb je niks aan gouden pluggen. Bij een digitaal signaal heb je wél of geen beeld. En de afscherming, waar verkopers over praten in de winkel, is pas belangrijk als je een lange afstand moet overbruggen van 5 meter of meer. Dan loop je het risico dat het beeld wegvalt met een goedkope kabel. Maar de gemiddelde Nederlander heeft zijn DVD-speler direct onder zijn televisie staan, dus is een kabel van anderhalve meter voldoende", aldus Walter Holweg docent Elektrotechniek aan de Hogeschool Windesheim.

Uiteraard blijft het zaak om er goed op te letten dat een kabel kwalitatief goed geproduceerd is maar het is duidelijk dat het vooral bij korte kabels vaak niet loont om de hoofdprijs te betalen.

Bron: Vara Kassa

"Question: Is there any difference between a cheap (i.e. $10 HDMI cable) and an expensive (i.e. $150 HDMI cable)???"

I have an EE degree. I work as a broadcast engineer. I live and breath digital and analog signals every day. So yes, you could say I'm qualified to give the answer to this question...

That answer is, "No, an expensive HDMI cable will make NO difference in the quality of your picture OR sound"

I'll give you the more complex reason first, then an analogy... Hopefully one will make sense... If you don't want all the real technical stuff, just skip down to B for a real simple explaination...

A) Wires send electrical signals... Plain and simple. Anything sent over a wire is ultimately just a voltage/current applied to that cable. Let's say we're talking about an analog video signal that's 1 volt peak to peak... In other words, measuring from the LOWEST voltage to the HIGHEST voltage will give a result of 1 volt... With an analog signal you have "slices" of time that are "lines" of signal... It's too complex to go into here, but basically you have a "front porch" which is known as the "setup"... This is what helps your tv "lock onto" and sets the "black level" for the signal. After that you've got each line of the image (455 half cycles per line). Again I won't go into how chromanance (color information) and luminance (picture or brightness information) is combined, seperated, etc.. It's too complex for this discussion, but irregardless, just know that following that porch you've got all the lines of the picture (and some that don't show up on the picture... these carry closed captioning, test signals, etc...). All of these "lines" of information when you look at them on a scope look like this...



That waveform is all of that information in analog form... In other words, if you look at one VERY SMALL timeslice of that waveform, the EXACT position of the form (i.e. what voltage is present) represents what information is at that position...

Because of this, it's VERY EASY for other radiated signals to get "mixed in" with that information. When this happens, the more "noise" you get mixed into the signal, the more degraded the picture will be... You'll start to get snow, lines, weird colors, etc... Because "information" is getting into the waveform that doesn't belong there...

With digital however, (i.e. the signal sent over an HDMI cable), the information is encoded differently... At it's lowest level, it's nothing but a string of bits... In other words, each signal is either ON or OFF... It doesn't care if a particular timeslice is 4.323 volts or 4.927 volts... It's just ON... See on the right side here, the "square wave" pattern?

That's what a digital signal looks like... For each "slice" of the signal, the "bit" is either on (if the signal is high) or off (if it's low)...

Because of that, even if you mix some noise, or even a LOT of noise into the signal, the bit will STILL be on or off... It doesn't matter...


Now, for a slightly easier to understand analogy...

B) Think of it this way... Let's say you have a ladder with 200 steps on it... An "analog" signal represent information by WHICH step the person is on at a certain time. As you move further and further away (get "noise or interference in the signal), it's very easy to start making mistakes... For example, if the person is on the 101st step, you might say he's on 102nd, or as you get further away, you might start making more and more mistakes... At some point you won't know if the person is on the 13th step or the 50th step....

NOW... In a digital signal, we don't care if he's on the 13th or 14th or 15th step... All we care about is rather he's at the TOP or the BOTTOM... So now, as we back you up further and further (introduce more noise), you might have no idea what STEP he's on, but you'll STILL be able to tell if he's a "1" or a "0"...

THIS is why digital signals aren't affected by cheaper cables, etc... Now eventually if you keep moving further and further back, there may come a point where you can no longer tell if he's up or down... But the good news is, digital signals don't "guess"... If they SEE the signal, they work... If they DON'T, they DON'T.. LOL

So if anyone ever tells you they can "see the difference" between HDMI cables, etc... You can knowingly laugh to yourself and think about how much money the poor sole wasted on something that was pointless.


Now, I've seen others say that they make a difference in audio... ALL audio carried over HDMI is STILL in digital format... So again, since it's a digital signal, it will not make ANY difference at all....

I've also seen various posts in regards to things like "Make sure you get a v1.3 cable"... The various HDMI versions determine the capabilities of the DEVICES on either end of that cable (most of the HDMI versions (other then 1.0 to 1.1) have to do with AUDIO and how many channels / type of audio are carried...) Because of this, the cable itself is NO DIFFERENT... It's just marketing that some companies charge more for a "v1.3" cable then a "v1.1" cable, etc... The cables themselves will work now and WELL into the future for any other HDMI versions that come along the way....

So there you have it... Hopefully it's clear enough to understand and hopefully it will help prevent a few posts...

Ravnoss
Dat was een lange post. Maar inderdaad. Duurdere HDMI kabels zijn gewoon gegooid geld .

RomeX
Ravnoss schreef:
Dat was een lange post. Maar inderdaad. Duurdere HDMI kabels zijn gewoon gegooid geld .


Mee eens, mijn HDMI kabel kost maar 16 euro en beeld is gewoon perfect.

avatar van wiiplayer
Oke, maar ik weet wat ik zie

avatar van Rujar
Plasebo effect. Het is echt uitvoerig getest allemaal. Het signaal is digitaal er kan helemaal niks aan veranderen. Als je steeds een kopie van een kopie van een kopie van een digitaal geluidsbestand maakt treed er ook geen kwaliteitsverlies op. Er kan best een stroring optreden (wat je dan met een duurder kabel kan oplossen. Maar ja je moet voor de grap eens een tv open maken en kijken wat voor dunne kabeltjes aan de andere kant van de HDMI connector zitten, die gewoon langs andere electronica leiden., Maar goed als het fout gaat, dan zou je beeld(lijnen) missen. En zeker geen kleurverlies. Een HDMI-kabel gaat niet ineens een antialiasing-filter met edge detection over je beeld heen halen ofzo.

avatar van wiiplayer
In Overigen > Algemeen > Het grote tv / filmtopic:

Hier komen meer users dus het is slimmer om het hier te posten:

Ik ben al bang voor de reacties maar ik wil toch echt graag een samsung. De ue32c6000 lijkt perfect. Hij heeft een vernieuwingsfrequentie van 400 hz (wow) een contrastratio van 4.000.000 (wow) en is niet duur.

Het enige nadeel wat ik vond was dat er blijkbaar sprake was van input lag. Dit zag ik op 1 site staan en diezelfde zin stond in meerdere hyperlinks via google. Verder kan ik niks vinden over hoe deze tv is met een PS3. Echter heeft een maat van mij de 37 inch versie beneden en daar zag alles er echt prachtig uit dus volgens mij is het onzin. Maar ik wil geen spijt hebben van mijn aankoop! Is er in godsnaam iemand die deze tv heeft en uit ervaring kan praten hoe hij werkelijk is met games?

En is er wel eens sprake van input lagg als je het hebt over een TV met PS3 of is dat alleen als ie aangesloten is op een PC?

avatar van Brains
Input lag heb je altijd. Het elektrische signaal dat van je controller naar je processor gaat, het beeldsignaal van je PS3 naar je scherm kost allemaal tijd. Dus ja, je hebt input lag. Gelukkig zijn onze ogen en hersenen vrij traag, dus het is niet snel merkbaar. Echter bij veel moderne TV's wordt nog beeldbewerking gedaan wat vrij veel tijd kan kosten, waardoor er dus een merkbaar tijdsverschil ontstaat tussen jouw actie op je controller en het moment dat dit op het scherm gebeurd. Dit bewerken is eigenlijk helemaal niet nodig (Hooguit om analoog beeld te verbeteren), dus als je echt input lag wil minimaliseren moet je een TV nemen die dat niet doet, snel doet of waar je het uit kan zetten.

avatar van Leidenaar187
Wow,jullie 2 kennen net zo goed Chinees praten,begrijp er echt niks van.

avatar van Confusie
HDTV is de SHIT.

Gast
geplaatst: vandaag om 23:46 uur

geplaatst: vandaag om 23:46 uur

Let op: In verband met copyright is het op GamesMeter.nl niet toegestaan om de inhoud van externe websites over te nemen, ook niet met bronvermelding. Je mag natuurlijk wel een link naar een externe pagina plaatsen, samen met je eigen beschrijving of eventueel de eerste alinea van de tekst. Je krijgt deze waarschuwing omdat het er op lijkt dat je een lange tekst hebt geplakt in je bericht.

* denotes required fields.