Beiträge von Emil

    Oh. Es scheint den Quadro4D aber damals nicht zu kaufen gegeben haben. Ich finde noch Artikel von 2013 ohne Angaben von Preis und Verfügbarkeit.


    p.s. zu dem BMW-Teil: und wieder ein "Sporttourer", auf dem man wie auf einem Hollandrad sitzt. Kopfschütteln..

    Höhöhö - da hat sich der Gesetzgeber solche Mühe gegeben und Regelungen mit der Brechstange geschaffen, die dank ihrer Ungereimtheit sogar A2 für unter 24-jährige mit automatischem Aufstieg ermöglichen (quasi verzögertes A-direkt). Nur um die B-Inhaber von den Dreirädern weg zu kriegen. Und dann kommen die Schweizer und hebeln das auch wieder aus mit einem 4-Rad-Roller mit Neigetechnik vorn und hinten:
    http://www.quadrovehicles.com/en/quadro4


    Allein das verringert aber schon das Tempo, weil die Größe des CPU-Caches im Verhältnis zu der der Binaries sinkt, Speicherzugriffe länger dauern usw.
    Meine Umstellung ist länger her, aber das Prinzip bleibt ja gleich.
    Es ist ansich auch nicht schlecht; 64-Bit-Plattformen haben z.B. nicht mehr das Problem mit der 4-GB-Grenze bei diversen Diensten wie ftp, die es dort gibt, solange niemand die Executables überarbeitet. Ich weigere mich nur, das jetzt als große Innovation anzusehen, zumal Apple wie alle anderen diese CPUs nur einkauft. Die GPUs, bei denen das wirklich einen Unterschied macht, sind halt schon seit längerem mindestens 128-bittig.


    Docker:
    Sag's uns doch. Ich bin von der "Religiosität" eh längst weg und nutze, was mir nützt. Meinem Vater, der völlig unbedarfter User ist, habe ich ein Macbook empfohlen. War ihm aber dann zu teuer ("mit denen von Aldi sind doch auch alle zufrieden").

    Ja, der 32-Bitter braucht dafür wesentlich mehr Zyklen, und Befehle für 128 Bits hat er eventuell gar nicht (viele CPUs können Werte mit einer Größe über ihrer nativen Wortbreite behandeln, mit verringerter Geschwindigkeit).
    Nur sind solche Fälle abseits von speziellen Anwendungen recht selten. Dafür hat 64-Bit mehr Overhead; ein einfacher "int" in C wird in 64x0/1 übersetzt, auch wenn der tatsächliche Wert gar nicht so groß ist. Dann werden da halt zusätzliche Nullen herumgeschaufelt. Das kostet Zeit und macht die Binärdateien größer.
    Bei der Umstellung von i386 auf amd64 habe ich das damals unter Linux ausgiebig getestet. 32 Bit mit PAE und 8 GB RAM war mit Ausnahme einiger weniger großer Anwendungen schneller.


    Bei einem aktuellen Telefon ist es schon sehr zweifelhaft, ob sich der Schritt auf 64-Bit merklich positiv auswirkt. Zukunftssicherer ist es natürlich.

    Ich wollte damit sagen, dass die GPUs schon länger mit überlangen Worten arbeiten, so dass der Umstieg bei den CPUs noch weniger bringt.
    Multitasking hat nichts mit der Wortbreite zu tun, das konnte schon der 386 in Hardware. ;) Falls du OOE und Ähnliches meinst, auch das ist nicht daran geknüpft und teilweise seit dem ersten Pentium dabei.


    Ohne Grafikanwendung bleibt nicht viel mehr Nutzen übrig als die Tatsache, dass auf der 64-Bit-CPU ein einzelner Prozess mehr als 4 GB RAM adressieren kann (das OS insgesamt kann je nach CPU auch mehr, siehe 36-Bit-Adressierung mit PAE bei x86).


    Eine 64-Bit-CPU da reinzubauen, ist keine wirkliche Innovation, nur eine Kostenfrage. Bei den typischen Anwendungen (und Speichermengen) auf den Telefonen kann es auch kontraproduktiv sein. Solange keine Langworte benötigt werden, ist 64-Bit-Betrieb etwas langsamer (5-10%) und speicherintensiver als mit 32.


    Oft benötigt wird die Wortbreite bei 3D-Grafik, aber schon das Samsung S4 hat dafür einen PowerVR SGX544MP3 mit 128 Bits Busbreite.
    Liest sich für mich deshalb wieder mehr nach gutem Marketing ("64 = größer = besser als 32"). Wer weiß denn von den Kunden eines solchen Massenproduktes heute auch schon, was genau das bedeutet.

    Das ist doch kein Glaubenskrieg. Den gabs in den 80ern bei Amiga gegen Atari ST (Amiga war besser(TM)!).
    Wie geschrieben, die Apple-Produkte sind ihr Geld durchaus Wert für Leute, die nicht herumbasteln wollen. Nur der Hype darum ist aus technischer Sicht nicht gerechtfertigt.


    Jugendliche Nerds, die die Aspekte von Marketing und Nutzerfreundlichkeit nicht berücksichtigen, schielen halt nur auf die Technik und schreien dann herum.
    Das hätte ich in dem Alter auch nicht anders gemacht.

    2012 ist übertrieben, aber mein Samsung S4 von März 2013 kann man technisch durchaus mit den aktuellen Eifons vergleichen.
    Dazu finde ich 5" bei 1920x1280 auch praktikabler als die beiden Größen des iphone 6. Das eine ist niedriger aufgelöst, das andere übergroß (und das auch wegen eines größeren Randes oben und unten).
    Pixel kann ich auf meinem Display immer noch erkennen, ich muss nur die Kontaktlinsen rausnehmen und auf 10 cm rangehen. ;)
    Samsungs AMOLED-Schirm ist eine Klasse für sich, mit "echtem" Schwarz (die Pixel leuchten selbständig).


    Nachteile bei Android sind eine immer noch leicht vorhandene Eingabeverzögerung und natürlich der ganze Bastelkram, vor allem nach dem Rooten, was alleine schon nötig ist, um die ganzen dämlichen Addons der Telefonhersteller loszuwerden. Immerhin kann der Launcher bei Android 4.4.2 jetzt frei gewählt werden.
    Das Upgrade von 4.2 auf 4.4.2 hat mich einen halben Tag und viel Gefrickel gekostet. Dafür bin ich immer noch halbwegs Herr darüber, was das Gerät macht.
    Veraltete Geräte lassen sich mit CyanogenMod noch eine ganze Weile frisch halten.


    Ich finde die iphones ok für Leute, die einfach nur ohne Gebastel ein zuverlässiges Smartphone haben wollen, aber der Hype ist schon lächerlich. Allein das Tamtam um diesen Luftdrucksensor, den das S4 auch hat, und bei dem es Schrittzähler usw eben letztes Jahr schon gab.
    Technische Vorreiter waren Apple sowieso selten; das fing mit dem ersten Mac in den 80ern an, dessen Oberfläche von Xerox Parc geklaut war. Das erste Tablet war glaube ich von Microsoft. Apple verfeinert eher Vorhandenes und macht es größeren Käuferkreisen schmackhaft. Rein technisch sind andere fast immer weiter.