glassbear hat geschrieben:Vielleicht mal Treiber aus 2016 probieren, nicht die alten aus 2015 ;)
Nee, bin seit Mitte 2015 bei Nvidia ;)Krishty hat geschrieben:Jedenfalls habe ich seit 2012 oder so nur noch den Standardtreiber drauf
glassbear hat geschrieben:Vielleicht mal Treiber aus 2016 probieren, nicht die alten aus 2015 ;)
Nee, bin seit Mitte 2015 bei Nvidia ;)Krishty hat geschrieben:Jedenfalls habe ich seit 2012 oder so nur noch den Standardtreiber drauf
Du musst das "gelbe !" nicht installieren... ;)Alexander Kornrumpf hat geschrieben:Ich mag bei Nvdia schon dieses Feature, dass es die Grafikoptionen von Spielen automatisch festlegen kann, denn ich fühle mich inzwischen zu alt um mich mit sowas noch selbst auseinanderzusetzen. Das mit dem Treiberupdate ist ehrlich gesagt eher obsessive compulsive, ich will kein gelbes "!" in der Taskleiste.
Es ist vielleicht nicht klar geworden, aber ich bin an der Stelle strictly End-User. Ich installiere das, was der Vendor liefert und erwarte, dass es funktioniert, ohne dass ich mich groß damit auseinandersetzen muss. Was NVidia bis zu o. g. Problem auch immer hinbekommen hat.dot hat geschrieben:Du musst das "gelbe !" nicht installieren... ;)
Solange es funktioniert hat, war es keine Schikane sondern ziemlich nützlich, weil es halt, wie gesagt, die Optionen einstellen kann.Krishty hat geschrieben:Lustig, wie sich scheinbar jeder einfach mit diesen Schikanen abgefunden hat.
Wow. Also von hinten nach vorn lesen: ich habe …https://msdn.microsoft.com/de-de/library/windows/desktop/bb761983(v=vs.85).aspx hat geschrieben:rgelt [out]
Type: LPITEMIDLIST*
The address of a pointer to an array of ITEMIDLIST pointers that receive the item identifiers.
The floating point emulation library was pretty hefty, and it would have been a waste to include it for programs that didn't use floating point (which was most of them), so the compiler used a trick to allow it to pull in the floating point library only if the program used floating point: If you used floating point, then the compiler added a needed symbol to your OBJ file: __fltused.
That magical __fltused symbol was marked as provided by... the floating point emulation library!
The linker found the symbol in an OBJ in the floating point emulation library, and that served as the loose thread that caused the rest of the floating point emulation library to be pulled into your module.
Krishty (http://zfx.info/viewtopic.php?f=9&t=307&start=4545#p51440) hat geschrieben:Mein Thumbnail Handler ist 90 KiB groß. 79 KiB davon entfallen auf die Visual-C++-CRT, die überzeugt ist, folgende Dinge gehörten in mein Programm obwohl ich keinen Gebrauch davon mache:Ich muss also dringend wieder anfangen, meine eigene CRT zu schreiben. Wirklich – fuck that shit.
- log10() (fast 2 KiB)
- parse_command_line(), expand_argument_wildcards(), common_expand_argv_wildcards(), usw – obwohl ich eine DLL kompiliere(!)
- memcpy – ich sehe ein, dass man das manchmal zur Initialisierung braucht; aber nicht, dass es mit 1 KiB größer ist als viele meiner Image Loader
- _raise_exc_ex(), _seh_filter_exe() und weitere Ausnahmebehandlungsroutinen – obwohl Exceptions in den Projekteinstellungen abgeschaltet sind und ich kein SEH nutze
- setmbcp_internal(), write_text_utf8_nolock(), und weiterer Locale-Dreck – obwohl ich keine stdio oder C++-I/O nutze
- __report_gsfailure() – obwohl Security Checks deaktiviert und Security Cookies durch Compiler-Switch ausgeknipst sind
- Rund fünfzig Funktionen betreffend Locks und Mutexe – obwohl ich nichts in Richtung Multithreading verwende außer _InterlockedIncrement() & Co.
- Etliche KiB unkenntlichen Mülls aus einer gewissen winapi_thunks.obj
Von all dem ist die Telemetrie noch das am wenigsten Absurde, das in den Programmen landen kann. UndKrishty (http://zfx.info/viewtopic.php?f=9&t=307&start=4575#p51540) hat geschrieben:Geschafft. Der Thumbnail Shell Extension Handler nutzt keine CRT mehr, und die Größe ist von 104 KiB auf 15 geschrumpft (64-Bit-Version!). […] Das Ersetzen der CRT ging übrigens – selbstverständlich – nicht ohne Assembler-Quelltext. Danke, Visual C++!
ist für mich keine Hintertür oder Spionage; zumal sie nirgends Hinweise haben, dass der Telemetriedienst tatsächlich getriggert wurde (scheinbar hat ihn das Team ja selber noch nicht eingesetzt). Für mich ist das also einfach fehlendes Fachwissen oder hoher Zeitdruck, und die CRT war immer schon Visual C++’ Sorgenkind.Damit erfassbare Daten wie Zeitstempel oder Module Load Events landen zwar nur auf lokalen Datenträgern
Die Hysterie wegen dieser zwei Symbole ist echt das Lächerlichste was mir in letzter Zeit so untergekommen ist. Nimm nen Debugger deiner Wahl und schau dir mal die Disassembly davon an; du wirst feststellen, dass die Dinger a) völlig harmlos sind und b) by default einfach nur gleich wieder returnen. Alles was die tun, ist ein ETW Event triggern, welches standardmäßig inaktiv ist. Wenn man es enabled, dann kann man damit die Ausführungszeit der Anwendung messen und das ist alles.Tiles hat geschrieben:Das is doch mal geil. Noch mal einer aus der Schublade Microsoft ist nicht mehr zu trauen: [...]
So ist es :) :PKrishty hat geschrieben:diese hässlichen Details
http://www.netzwelt.de/forum/threads/input-lag-am-fernseher.248643/ hat geschrieben:Wenn du die beeinflussenden, bildverbessernden Optionen deaktiviert hast, musst du eben damit leben. Das ist bei deinem Gerät dann einfach so. Viele Geräte bzw. Modelle haben solche Lags, die kann man nicht so einfach abschalten.
http://extreme.pcgameshardware.de/heimkino-audio-video-player-tv-karten-unterhaltungselektronik/429264-grundig-vle-971-bl-32-zoll-ueber-xbox-one-starker-input-lag-wie-beheben-ideale-tv-einstellungen.html hat geschrieben:Ansonsten wirst du am Input Lag nichts ändern können, der ist abhängig von Panel, Elektronik und den verwendeten Bildprogrammen. Da du schon den Spiel Modus aktiviert hast, kannst du nichts weiter tun.
Was seid ihr denn für endverblödete Konsumrindviecher?! NATÜRLICH kann ich was ändern: Ich schicke das Scheißteil zurück und nutze weiter meinen 25 Jahre alten Röhrenfernseher! Oder kaufe beim Türken um die Ecke ’ne Röhre mit der Größe eines Kleiderschranks für Fuffzig Euro!https://www.computerbase.de/forum/showthread.php?t=1431419 hat geschrieben:Du kannst anschließen was du willst, ich habe selbst über 100 Fernseher auf Inputlags getestet und JEDER Fernseher hat einen Inputlag, egal ob da ein Spielmodus vorhanden ist oder nicht.
Das liegt einfach am Panel und der Elektronik, welche verbaut und nicht geändert werden kann.
True dat. Bin ich froh über meine beiden alten Bildschirme, die tun zuverlässig. Ich versteh gar nicht, warum die den ganzen Rotz von wegen "Bildverbesserung" da überhaupt einbauen....Krishty hat geschrieben:...
Interessanter Punkt. Ich habe bisher nur Divinity: Original Sin auf dem Fernseher gespielt, das ist rundenbasiert. Ist mir aber auch nicht als sonderlich schwammig aufgefallen der Input. Und das war wohlgemerkt über Steam-Inhouse-Streaming, was lagbezogen sicher nicht Gratis ist. Mal mehr experimentieren, ich werde dann berichten.Krishty hat geschrieben:Ich habe meine Spielkonsole zum ersten Mal an einen digitalen Fernseher angeschlossen, und … nichts ist spielbar weil ich eine geschätzte halbe Sekunde Input-Lag (Schaltzeit vom Eingang des Signals bis zum Anzeigen) habe. WTF?!
Natürlich habe ich alle Bildverbesserungen (MPEG-Deblocking [bei Analogeingang – WTF], dynamischen Kontrast, dynamische Helligkeit, Scharfzeichner, …) abgeschaltet, und dann ist der Lag auf vielleicht eine Viertelsekunde runter. Immernoch komplett unbrauchbar für IRGENDWAS. Und was sagt das Internet so?
Sieht dann hat im Wohnzimmer scheiße aus.Was seid ihr denn für endverblödete Konsumrindviecher?! NATÜRLICH kann ich was ändern: Ich schicke das Scheißteil zurück und nutze weiter meinen 25 Jahre alten Röhrenfernseher! Oder kaufe beim Türken um die Ecke ’ne Röhre mit der Größe eines Kleiderschranks für Fuffzig Euro!
Habe ich auch, aus dem gleichen Grund. Allerdings in der "dumb"-Version, d. h. ich kann auf den Computer darin nicht zugreifen. Zeiten beim Senderwechsel sind lächerlich lang, aber sonst ist mir wie gesagt nichts aufgefallen.Das Teil ist von Grundig (weil die Röhre auch Grundig war und sich 1A gehalten hat).
Naja. Ich habe ein separates Gerät, was Dolby und DTS dekodieren kann. Dieses Gerät und der Fernseher zusammen haben weniger gekostet als 1995 ein Fernseher in der Größe, und haben zusammen weniger Volumen. Abgesehen davon dass der 1995 Fernseher vermutlich auch kein Dolby oder DTS gekonnt hätte. Um jedoch Insult zu Injury hinzuzufügen: Das Zusatzgerät kann künstlich den Ton verzögern, falls das Bild laggt. Ist mir aber noch nie so störend aufgefallen, dass ich es benutzt hätte.Es hat sich auch in allen anderen Belangen als nutzlos erwiesen, weil es keine DTS-Tonspuren unterstützt (viel Spaß, wenn man mal was aus der PC-Welt drauf abspielen will). Verfickte 400-Euro-Flachwichse. Wer nach 1995 noch Fernseher kauft, ist ’n Vollidiot.
Zugegebenermaßen sehen die meisten Filme mit automatischer Aufbereitung auf 60 Hz schon ganz gut aus (von einigen Artefakten mal abgesehen). Dynamischer Kontrast und so mag einige stören, andere nicht. Mir ist’s egal, so lange ich das Zeug abschalten kann. Wenn es danach aber immernoch laggt, verstehe ich nicht, wie man die millionenfache Rechenleistung eines 95er Fernsehers so zum Fenster rauswerfen kann.MasterQ32 hat geschrieben:Ich versteh gar nicht, warum die den ganzen Rotz von wegen "Bildverbesserung" da überhaupt einbauen....
Da finde ich gemischte Rezensionen. Einige Spieler kommen gut damit klar; andere meinen, dass die HDMI-Ports als einziger Input latenzfrei sind (manchmal soll man sogar verschiedene Ports ausprobieren, bis man den hat, der nicht laggt). Als ich zuletzt bei Bekannten PS4 gespielt habe, ist mir auch kein großartiger Lag aufgefallen (oder die Gewöhnung an den Controller verdeckt das). Vielleicht sollte ich auch mal Adapter ausprobieren, nur zum Spaß ;)Alexander Kornrumpf hat geschrieben:Aber wundert mich, dass die ganze Konsolenspieler sich damit abspeisen lassen.
Alles was ich oben beschrieben habe bezog sich auf HDMI, ja. Hast du ein analoges Signal reingegeben? Der 1995er Fernseher musste das ja nicht digitalisieren. Was natürlich nicht heißen soll, dass man es nicht schneller digitalisieren könnte.Krishty hat geschrieben:Da finde ich gemischte Rezensionen. Einige Spieler kommen gut damit klar; andere meinen, dass die HDMI-Ports als einziger Input latenzfrei sind (manchmal soll man sogar verschiedene Ports ausprobieren, bis man den hat, der nicht laggt). Als ich zuletzt bei Bekannten PS4 gespielt habe, ist mir auch kein großartiger Lag aufgefallen (oder die Gewöhnung an den Controller verdeckt das). Vielleicht sollte ich auch mal Adapter ausprobieren, nur zum Spaß ;)
„schneller“ ist untertrieben. Meine 1995er 20-Mark-PCI-Karte mit AV-In konnte das schneller digitalisieren als mein 2015er Fernseher.Alexander Kornrumpf hat geschrieben:Was natürlich nicht heißen soll, dass man es nicht schneller digitalisieren könnte.
Die Ergebnisse von rund 40.000 Studien müssen jetzt überprüft werden."In brief," the authors conclude, "we find that all three packages have conservative voxelwise inference and invalid clusterwise inference." In other words, while they're likely to be cautions when determining whether a given voxel is showing activity, the cluster identification algorithms frequently assign activity to a region when none is likely to be present. How frequently? Up to 70 percent of the time, depending on the algorithm and parameters used.
For good measure, a bug that has been sitting in the code for 15 years showed up during this testing. The fix for the bug reduced false positives by more than 10 percent. While good that it's fixed, it's a shame that all those studies have been published using the faulty version.
Ich habe den verdacht, dass die von jemandem gebaut wurde, der wusste was er tut und dein Fernseher von jemandem gebaut wurde, für den analoge Signale ein bestenfalls ein Anachronismus sind.Krishty hat geschrieben:„schneller“ ist untertrieben. Meine 1995er 20-Mark-PCI-Karte mit AV-In konnte das schneller digitalisieren als mein 2015er Fernseher.Alexander Kornrumpf hat geschrieben:Was natürlich nicht heißen soll, dass man es nicht schneller digitalisieren könnte.
Code: Alles auswählen
template <
typename dist,
typename queue,
typename manager,
typename allocator,
bool heuristics = true,
typename storage_base = Path<heuristics>,
template <typename _T> class _vertex = EmptyClass,
template <
typename _1,
typename _2
>
class builder_allocator_constructor = BuilderAllocatorConstructor,
template <
typename _1,
typename _2,
typename _3,
template <
typename _1,
typename _2
>
class _4
>
class manager_builder_allocator_constructor = ManagerBuilderAllocatorConstructor,
template <
typename _algorithm,
typename _manager,
typename _builder,
typename _allocator,
template <typename _T> class _vertex,
template <
typename _1,
typename _2
>
class builder_allocator_constructor = BuilderAllocatorConstructor,
template <
typename _1,
typename _2,
typename _3,
template <
typename _1,
typename _2
>
class _4
>
class _manager_builder_allocator_constructor = ManagerBuilderAllocatorConstructor
>
class _data_storage_constructor = DataStorageConstructor,
typename _iteration_type = __int32
> class Foo : public Bar;