Posts by Deep4

    Ich kloppe das mal so rein, das ist die Config meines A1200 (mit ACA1221) :


    Der N1E kann nur Composite und S-Video, aber kein RGB.


    Der N5E kann auch kein RGB.


    Ich würde mir BEIDE nicht holen, sondern nach einem PVM-14M4E Ausschau halten. Die können so ziemlich jedes Eingangssignal ab und lassen sich weitreichend einstellen...

    Soweit mir bekannt, taugt der Defender noch immer nicht als Webfilter.

    Defender = Virenscanner
    SmartScreen = Webfilter


    Wenn man Windows 10 nutzt ist das Out-of-box alles mehr als ausreichend. Wir reden ja nicht nur von Virenscannern etc., sondern da gibt es ja noch viel mehr Schutzmechanismen wie Exploit-Mitigation etc., die ist auch standardmäßig auf neueren Windows 10 Versionen aktiv.


    Dazu noch einen AdBlocker der Wahl im Browser und man ist *halbwegs* sicher unterwegs.


    Zusätzlicher Virenscanner oder gar "Security Suite" ist definitiv rausgeworfenes Geld...

    Und das ist eben nicht richtig. Ich würde mir die Lizenzbedingungen der Enterprise-Lizenz nochmals genau durchlesen und mich gut auf eine allfällige Lizenzüberprüfung vorbereiten. Wir hatten derer bereits zwei und ich weiß, wovon ich rede. Die heilige Inquisition war ein Sängerknabenverein dagegen. :(
    Es geht nicht darum, dass man die OEM-Lizenz weiterverkaufen darf; das geht, wenn man das Gerät ausscheidet oder nicht mehr für Windows verwendet.


    Solange aber ein Enterprise-Windows auf diesem Gerät läuft, muss eine Basislizenz (i. d. R. eine OEM-Lizenz, da am billigsten) vorhanden sein, sonst darf man die Enterprise-Version nicht nutzen. Die OEM-Lizenz liegt also in diesem Fall nicht "brach" und kann weiterverkauft werden, das ist illegal.

    Ich kürze das mal ab: Es kommt darauf an, was man mit Microsoft aushandelt. Bei Großkonzernen gibt es nicht "den" Enterprisevertrag, das kann sehr individuell sein und ist es in der Regel auch.


    Wir (Konzern mit > 120.000 Clients) können im Prinzip auch Rechner ohne Lizenz kaufen. Da kommt es aber auch wieder darauf an, welche Abnahmemengen man mit dem jeweiligen Hardwarehersteller aushandelt.

    Ich bin gerade zurück gekommen. Ich war jetzt schon ein paar Male dort, ich kaufe mir mit einem Kollegen allerdings immer Nachmittagstickets. Die gelten ab 14:00 Uhr und kosten 9 Euro.


    Um mal ein bisschen Messeluft zu schnuppern reicht das völlig aus. Spielen kann man eh vergessen, Wartezeiten von 2+ Stunden sind normal.


    Voll isses auch, aber nicht so das man durch die Hallen geschoben wird...


    Ich war länger in der Retroecke, habe mir auch ein Zerosphere mitgenommen, bisschen gequatscht etc.


    War nett, aber länger als ein paar Stunden halte ich es da auch nicht aus...


    Es gibt 100%-ige Sicherheit, nur geht die ab einer gewissen Komplexität verloren. Und die Komplexität von Soft- und Hardware steigt immer weiter - und damit auch die Zahl der Lücken. Der Aufwand und die Kosten für IT-Security steigen entsprechend mit. Wenn du dich beruflich um IT-Security kümmerst, hast du natürlich eine goldene Zukunft vor dir.

    100%ige Sicherheit ist Quatsch, und das weißt Du auch. Die gab es nie und wird es nie geben. Auch vor 30 oder 40 Jahren wurde in Computersysteme eingebrochen, das "Kuckucksei" sollte ja z.B. bekannt sein.


    Und das Hauptproblem ist damals wie heute EXAKT das selbe: Mangelndes Bewusstsein für IT-Sicherheit. Das Problem ist nicht die Technik, sondern das lange Zeit kein Fokus auf diesem Thema lag und es viele Firmen irgendwann eiskalt erwischt hat. Wäre es anders, hätten Läden wie Maersk nicht riesigen Schaden durch NotPetya erlitten. Das ist hausgemacht, auch weil viele aus WannaCry keine Konsequenzen gezogen haben. Ein einfacher Patch hätte schon das Schlimmste verhindert.

    Es gibt auch Mechanismen abseits von signaturbasierten Virenscannern.


    Verhaltensbasierte Sicherheitslösungen sind da eine gute Ergänzung, und funktionieren auch sehr ordentlich.


    Ein Allheilmittel ist das natürlich auch nicht, klar. In Kombination mit allen anderen Mitteln (Berechtigungskonzepten, Patch/Softwaremanagement, Mailfiltern, Monitoring, Schwachstellenscannern wie Nessus, OpenVas oder Rapid7 etc.) ist das aber schon sehr wirkungsvoll.


    IT-Security ist kein Selbstläufer, man muss schon was dafür tun. Und man kann es nicht so nebenbei tun.


    Ich - und viele meiner Kollegen in anderen Firmen - sind aber auch keine Schwarzseher. Wir reden ja nicht von irgendeiner Magie, welche Hacker oder Kriminelle einsetzen, sondern vom Ausnutzen von Lücken. Und genauso wie man Lücken ausnutzen kann, kann man sie auch schließen.


    Wenn Firmen heute allerdings noch mit XP und SMB1 und hastenichtgesehen unterwegs sind, muss man sich nicht wundern wenn es kracht.

    Du kannst einen Angriff doch gar nicht erkennen. Da läuft auf einem Server einfach eine Software, die den gesamten Speichers (und damit die Daten anderer VMs) ausliest. Was willst du dagegen tun? Mittlerweile gibt es auch so viele Varianten von Spectre und Meltdown - da kommt niemand mit dem Patchen hinterher. Irgendwann gibt's dann die Daten im Darknet zu kaufen - und keiner weiß wie sie kopiert worden sind.

    Mal langsam: Von Meltdown gibt es eine Variante. Bei Spectre gibt es mehrere bekannte Varianten, die alle gepatcht sind, in der Regel durch Microcode-Updates und Patches.


    Das ist jetzt nicht gerade eine Unmöglichkeit, die Patches und BIOS-Updates zu fahren. Man muss es halt machen, es gibt Dienste wie WSUS/SCCM/AMT ja nicht ohne Grund.


    Ich weiß jetzt ehrlich gesagt nicht, was an den Lücken anders ist, als an den tausend anderen Lücken die es so gab.


    Gerade Patchen ist ein regelmäßiger Prozess, das macht man ja nicht erst wenn die Hütte brennt.


    Dazu gibt es ja noch Exploit Mitigation, also z.B. EMET, oder die in Windows 10 eingebaute Variante, oder Endpoint Protection wie Fireeye HX oder Checkpoint Sandblast.


    100% Sicherheit gibt es natürlich nicht, aber man kann die Latte für Eindringlinge schon verdammt hochlegen...

    Meltdown und Spectre auszunutzen ist nun wirklich ein Kinderspiel. Und es geht vermutlich noch viel einfacher.

    Wenn das so wäre würde es ja jemand tun - ist aber bisher nicht geschehen.


    Es gibt - soweit bekannt - keinen erfolgreichen Angriff außerhalb von Laborbedingungen. Der einzig sinvolle Angriffsvektor wären Browser, diese wurden aber schon vor langem entsprechend gefixt.


    L1 Terminal Fault ist jetzt aktuell sicher noch mal ein anderes Thema, gerade für Rechenzentren. Aber auch gegen L1TF gibt es bereits Microcode-Updates (https://software.intel.com/sec…uidance/l1-terminal-fault), und die Hersteller der OSe werden wohl auch zügig reagieren...


    Nachtrag: Microsoft hat schon gepatcht...

    Ich liebe deinen ersten Satz! :) Er ist natürlich völlig richtig, aber zeigt auf wunderbare Weise, wie die viel zu kompliziert gewordenen Betriebssysteme ein völlig falsches Sicherheitsgefühl vermitteln. Frei nach dem Motto "Da steigt ja eh keiner mehr durch...". Tatsächlich war es nie einfacher als heute ein OS ohne Zutun des Anwenders zu kompromitieren. Noch nie hatten Betriebssysteme so viele Fehler wie heute, noch nie hatten CPUs so viele Fehler wie heute gepaart mit Dutzenden von undokumentieren Funktionen. Fehlerhafte Firmware bei Netzwerkkarten und Festplatten, UEFI, schrottige Treiber, Router mit Backdoors, Bloatware wohin man schaut. Dazu über Bluetooth und WLAN ständig mit der Außenwelt verbunden. Sicherheitstechnisch ist alles, was man heute kaufen kann, eine absolute Katastrophe. Natürlich bekommen wir außer ein paar Sicherheitslücken, die hier und da entdeckt werden, nichts mit. Fishing per Mail machen nur Amateure. Die echten Hacker können ohne Weiteres einen PC kapern - zeigen es aber sicher nicht für lausige 50.000$ Bug Bounty. Da klaut man lieber leise ein paar Bitcoins.

    Das ist falsch, dazu muss man sich nur die Angriffe der letzten Jahre ansehen. Ziel waren immer veraltete Infrastrukturen oder halt die Anwender.


    "Echte Hacker" haben Meltdown und Spectre gefunden, sogar den Weg aufgezeichnet, und trotzdem hat es bisher niemand geschafft dies auszunutzen.


    Und Bitcoins konnten auch nur geklaut werden, weil die betroffenen Börsen sehr lax in Sachen Sicherheit unterwegs waren...Man muss als Hacker nur stoisch genug sein, dann findet man auch eine Schwachstelle; die ist aber meistens "hausgemacht", weil irgendjemand gepennt hat.


    War immer so, wird immer so sein.

    Das Problem ist, derjenige, der einen Weg findet das als Drive-By-Attack via Javascript (also Besuch einer Webseite) zu implementieren wird das vielleicht nicht an die große Glocke hängen sondern passende Malware schreiben. Nichts zu tun wäre also ein Fehler.

    Wer sagt denn, das "nichts tun" ok wäre? Wir patchen unsere Systeme so weit es geht, halten unsere Software aktuell, nutzen diverse Möglichkeiten der Exploit Mitigation etc. Alles andere wäre natürlich fahrlässig.


    Trotzdem ist - auch wenn die Lücken in den CPUs gravierend sind - Hysterie, wie sie durch die Medien ging, unangebracht und unnötig. Es ist sehr wahrscheinlich, das so ziemlich jede CPU Lücken hat (siehe ja auch Via CPUs), die nur nicht entdeckt wurden. Aber Spectre und Meltdown (und so ziemlich alle nachfolgenden Entdeckungen in diesem Umfeld) sind erstmal klassische Beispiele von Labor-Exploits. Da müssen x Faktoren zusammenkommen damit sowas auf einem Rechner ausnutzbar ist. Zumal gerade die Browserhersteller schnell reagiert haben und damit die Haupteinfallstore deutlich entschärft haben.


    Der Impact der Patches bzw. BIOS-Updates auf die Leistung ist je nach CPU natürlich schon recht grob.


    Jetzt ist halt ein guter Zeitpunkt um Chipdesigner anzuhalten, sich noch mal genauer mit ihren zukünftigen Schöpfungen in dieser Richtung zu beschäftigen...

    Ist natürlich kein Rennpferd mit dem Atom N270... Dafür keine Probleme mit Spectre und Meltdown.

    Im echten Leben gibt es auch keine Probleme mit Spectre und Meltdown...Nur weil es die Lücken gibt, heißt das noch lange nicht das man sie ausnutzen kann.


    "In the wild" wurden die Lücken nämlich noch nicht ausgenutzt...


    Es ist heutzutage unglaublich kompliziert, ein OS ohne Zutun des Anwenders zu kompromitieren. Nicht umsonst ist (Spear-)Fishing per Mail immer noch das Mittel der Wahl um Schadcode auf den Rechner zu bekommen.

    Ja und warum tun sie es nicht ?

    Weil es für Firmen zu wenig Planungssicherheit gibt. Und das liegt zu einem guten Teil in der Linux-Szene selber begründet. Auf der einen Seite fühlt sich die OpenSource-Community als "großes Ganzes", auf der anderen Seite gibt es allerdings zu Hauf Zersplitterung und Grabenkämpfe. Man muss sich ja nur mal die Kontroversen um z.B. systemd ansehen. Viele Linux-Entwickler sind zudem, vorsichtig ausgedrückt, schwierig. Torvalds und Poettering sind da nicht alleine...


    Das Ganze ist ein sehr fragiles Konstrukt, sehr häufig von Einzelpersonen (z.B. Maintainern) abhängig und leider zu selten von Gremien welche sowas wie Struktur in Dinge bringen würden. Da hätte man vielleicht längere Entscheidungsprozesse, aber auch mehr Konsistenz - und Qualität. Ein schönes Beispiel für mangelnde Konsistenz ist z.B. die Entwicklung von KDE (man erinnere sich mal an den Wechsel Plasma 4 -> 5). Eine Katastrophe...


    Und dann stehst Du da als Softwareentwickler und fragst Dich, was mag morgen kommen...

    Oh, das kommt mit der Zeit... Wenn man dir ein .doc(x) oder .xls(x) zuschickt und selbstverständlich erwartet, daß du das öffnen kannst. Dazu ist vielleicht noch ein Virus/Trojaner drin (Ok, auf Linux tut der nichts, aber es bildet sich ein Eindruck vom typischen Windows-User heraus) Oder du gerufen wirst wenn Windows mal wieder nicht will wie es soll weil du dich mit Computern ja auskennst. 'Kannst du nicht mal kurz nachschauen?". Dann will man hilfreich sein und findet ein System vor welches 5 min alleine zum Booten braucht und komplett zugemüllt ist. Oft bekommt man das wieder hin, aber der Abend ist futsch, von wegen 'mal kurz'. Manche User sind dann dankbar und man bekommt ein Bier oder sonstiges Dankeschön, andere meinen das brauchts nicht, schliesslich macht dir sowas Spass.
    Achja... und wenn das von dir gerettete System wieder Ärger macht, egal wann, dann wird erwartet, daß du es noch einmal flickst, schliesslich warst du da dran und damit ist es deine Schuld wenn es wieder klemmt.

    Ganz ehrlich? Das sind so Geschichten, die gab es mal vor 10 Jahren.


    Ich habe seit Jahren keinen einzigen Bluescreen mehr gesehen, und wenn die Leute nicht an ihren Rechnern rumfrickeln bekommt man Windows 10 kaum noch kaputt.


    Das mit dem Basteln im Familienkreis musste ich seit Jahren nicht mehr machen: Mein Vater und mein Schwiegervater haben von mir Windows 10 auf ältere (Core 2 Duo) Laptops bekommen, SSD rein, dazu noch ein TeamViewer und fertig.


    Seitdem ist da Ruhe im Karton. Keine Malware, keine Sorgen, alles geht und ich muss mich um nichts kümmern. Ab und an schaue ich da mal drauf und das war es.


    Siehste, ich kann auch annekdotische Evidenz...



    Wir leben nicht mehr in Windows XP und 7 Zeiten, und technisch gesehen ist Windows 10 ein Riesensprung nach vorne. Da muss man schon Vorsatz haben um das kaputt zu bekommen...


    PS:


    Ich hänge das mal hier als Einordnung dran, nicht dass man mich als Windows-Fanboy sieht:


    Ich nutze Linux seit 1993, privat und beruflich. Nicht immer, auch mal mit größeren Pausen dazwischen, aber immer wieder gerne. Auf pro-linux.de stehen heute noch Reviews von mir, die ich Anfang der 2000er geschrieben habe.


    Heutzutage nutze ich Linux in Form einer Kali-Distribution fast täglich da ich diverse Werkzeuge nur unter Linux habe - hier ist es halt andersrum. Software wie OpenVAS gibt es nun mal nicht unter Windows.

    Bei Remote-Anwendungen hängt es stark davon ab was das Netz hergibt. Wenn dir die 100MBit/sec die der typische Thin-Client hat alleine gehören ist das keine Sache, geht gut. Aber wenn zuviele Leute auf derselben Leitung (oder demselben WLAN) unterwegs sind ist eben irgendwann Schluss mit 'läuft Bombe'.


    Das ist echt schwer zu ertragen...


    Können wir vielleicht mal von halbwegs modernen Netzwerkinfrastrukturen reden? Eine Firma, die in größerem Maßstab Citrix einsetzt wird eher NICHT 10Mbit am Arbeitsplatz haben und 100MBit im Backbone.


    Standard bei *aktuellen* Netzen ist Gigabit bis zum Arbeitsplatz und im Core 10 oder 100GBit. Zusammen mit ordentlich skalierter Serverhardware (inkl. NVidia Grid) kannst Du in solch einem Netz tausende User gleichzeitig bedienen. Schnell.


    Die Übertragung vom Server zum Client wird heutzutage über H.265 bereitgestellt, die Anforderungen an das Netz sind dementsprechend gering.


    Natürlich ist irgendwann "Schluss mit läuft Bombe", aber das ist wohl immer irgendwann der Fall, oder?


    Es ist eine Kosten/Nutzen Rechnung. Wenn ich Anwender habe, die ab- und zu mal PhotoShop machen müssen ist Citrix DIE Lösung schlechthin. Die Alternative ist es nämlich, eine Lizenz zu verbraten und einen halbwegs tauglichen Rechner vor Ort hinzustellen - der 90% seiner Lebensdauer in IDLE läuft. Gleiches gilt für Homeoffice, externe Mitarbeiter, Projektarbeit mit Kunden etc.

    Ein Client benötigt man immer. Glaube nicht, dass man so ein umfangreiches Tool als Webanwendung umsetzen kann.

    Web geht im Prinzip auch dank Hardwarebeschleunigung im Browser, aber was auf jeden Fall geht ist z.B. PhotoShop über Citrix XenApp/XenDesktop. Setzen wir in dieser Form produktiv ein (Citrix/NVidia Grid).


    Läuft Bombe, und ist in der Performanz kein Unterschied zu einer nativen Installation. Als Client kannste dann auch einen Raspi hintern Monitor kleben...

    Könnte sich bald wieder ändern müssen wenn die Generation Smartphone/Tablet ins Arbeitsleben eintritt. Die sind Google-Docs und Android gewöhnt.


    Aus sicherer Quelle kann ich Dir sagen: Ist völlig egal und spielt überhaupt keine Rolle. Die Generation ist schon lange ins Arbeitsleben eingetreten und das Chaos bliebt erstaunlicherweise aus.


    Was konstruierst Du dir hier eigentlich zusammen?