Medien & Phantastik > Linux/Unix

Wechsel von Windows auf Ubuntu

<< < (22/29) > >>

Woodman:
Da steht bei mir auch 0 und meine Grafikkarte hat ganz sicher 256mb abbekommen, weil das das maximum ist was sie verträgt

Bitpicker:
Linux kommt auf unterschiedlichen Geräten mit dem gleichen Arbeitsspeicher oft zu unterschiedlichen Zahlen. Shared Memory wird vom BIOS abgezweigt und wird meines Wissens nicht von Linux berücksichtigt, wenn es den vorhandenen und freien Speicher anzeigt. Das BIOS belegt auch andere Speicherbereiche, und dazu kommt noch, dass manche Hersteller und manche Programme 1 GB als runde Zahl betrachten, andere aber die tatsächliche Umrechnung in Byte zugrundelegen. Und dann gibt es noch die Puffer- und Cachefunktionen, die ein Programm vielleicht berücksichtigt, vielleicht aber auch nicht. Manche Programme betrachten diese Bereiche als frei, andere als belegt.

Mein Systemmonitor gkrellm zeigt mir zum Beispiel gerade auf meinem 64bit Ubuntu 10.10 mit 4 GB RAM und einem vom BIOS automatisch ermittelten Shared Memory-Bereich 3710M gesamt und 3094M frei an. Ein Schieberegler ragt in den freien Bereich herein und zeigt den Cache und Pufferbereich an.

Der Befehl top zeigt folgendes an:
Mem:   3799172k total,  1403160k used,  2396012k free,    85392k buffers
Swap:  3907580k total,        0k used,  3907580k free,   612100k cached

Noch genauer weiß es cat /proc/meminfo
MemTotal:        3799172 kB
MemFree:         2401908 kB
Buffers:           84676 kB
Cached:           611456 kB
SwapCached:            0 kB
Active:           698992 kB
Inactive:         469944 kB
Active(anon):     473256 kB
Inactive(anon):     8012 kB
Active(file):     225736 kB
Inactive(file):   461932 kB
Unevictable:           0 kB
Mlocked:               0 kB
SwapTotal:       3907580 kB
SwapFree:        3907580 kB
Dirty:                60 kB
Writeback:             0 kB
AnonPages:        472796 kB
Mapped:           138004 kB
Shmem:              8472 kB
Slab:              75952 kB
SReclaimable:      55464 kB
SUnreclaim:        20488 kB
KernelStack:        2712 kB
PageTables:        20472 kB
NFS_Unstable:          0 kB
Bounce:                0 kB
WritebackTmp:          0 kB
CommitLimit:     5807164 kB
Committed_AS:    1396440 kB
VmallocTotal:   34359738367 kB
VmallocUsed:      108264 kB
VmallocChunk:   34359626228 kB
HardwareCorrupted:     0 kB
HugePages_Total:       0
HugePages_Free:        0
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
DirectMap4k:       38592 kB
DirectMap2M:     1796096 kB
DirectMap1G:     2097152 kB

Es gibt auch eine Überdosis an Information. Fest steht aber, dass ein 64bit OS mit 4GB RAM umgehen kann, ein 32bit OS aber nicht. :) Es ist also alles in Ordnung.

Was das Software Center angeht, es ist mir zu naiv, ein App Store, der keine Auswahl mehrerer Programme gleichzeitig ermöglicht, aber es ist für Einsteiger sicher OK. Das Center gibt auch Zugriff auf einige "kommerzielle" Produkte, in der Rubrik "zum Kauf" stehen derzeit zwar nur die Fluendo Codecs, aber da kommt sicher noch mehr dazu. Immerhin sind Adobe Air, Flash, Reader, Skype und ein paar andere Programme auch darin, so dass der Umweg über Herstellerwebseiten in diesen Fällen nicht mehr unbedingt nötig ist. Synaptic listet diese Programme nicht. Sogar Dropbox ist drin, obwohl Canonical mit Ubuntu One ein Konkurrenzprodukt hat. Auch Opera ist dabei, nicht jedoch Truecrypt.

Was mich derzeit noch ärgert, ist, dass der amazon mp3 Downloader noch immer nicht 64bit-fähig ist und sich nicht installieren lässt.

Feuersänger:
Hmh, das ist bei mir so ähnlich. gkrellm zeigt 3708M insgesamt an. Es fehlen also 388M. Mir erschließt sich immer noch nicht, warum das "in Ordnung" ist, da mein Grafikchip ja laut Catalyst seinen eigenen Speicher mitbringt und nichts schnorren muss.

Hihi, grad noch was ausprobiert: ein beliebter Gag war bei uns früher an der Uni, sich im Rechnerraum mit ssh auf einem anderen belegten Rechner einzuloggen, und da mit cat /dev/zero > /dev/null alles lahmzulegen. Ich stelle fest, dass dieser Trick jetzt keinen spürbaren Effekt mehr hat - der Prozess lastet nur einen Kern komplett aus, und man kann auf dem zweiten Kern bequem weiterarbeiten.

Dann erinnere ich mich, dass z.B. Open- bzw StarOffice damals (ca. 2002) unter Linux äußerst lumpig portiert und extrem lahmarschig war - auf ein und demselben Rechner betrug die Startup-Zeit unter Linux ein vielfaches (ca. 3x? 5x?) wie unter Windows. Immerhin, das geht heute sehr zügig - aber ob das an einer besseren Programmierung liegt, oder nur an der rohen Rechenpower, kann ich nicht beurteilen, da ich nur jeweils 1 OS pro Rechner installiert habe, und meine Windowskiste 5 Jahre alt ist.

Edit:
eins noch, obwohl bei mir ja das Kind schon in den Brunne gefallen ist. Wie unterscheiden sich eigentlich Debian und Ubuntu? Abgesehen davon, dass Debian das hübschere Logo hat. Was kann Ubuntu, das Debian nicht kann?

Woodman:
http://de.wikipedia.org/wiki/Debian
http://de.wikipedia.org/wiki/Ubuntu

Ubuntu baut zwar auf Debian auf, vertritt aber eine andere Philosophie, wahrscheinlich wirst du als normaler Anwender mit Ubuntu glücklicher.

Haukrinn:
Ubuntu kann für Normalsterbliche einfach zu installieren und zu bedienen sein. Debian kann das nicht, das ist eher für Experten. Debian ist dafür extrem stabil, was man aber damit bezahlt, dass die Programmversionen in Debian uralt sind. Es gibt zwar auch experimentelle Versionen, aber die sind genau das - experimentell.

In aller Regel wirst Du mit Ubuntu besser fahren. Da der Kern derselbe wie bei Debian ist, kannst Du auch Debian-Pakete in aller Regel problemlos unter Ubuntu installieren.

Navigation

[0] Themen-Index

[#] Nächste Seite

[*] Vorherige Sete

Zur normalen Ansicht wechseln