2011-10-24, 17:21
#1
Jag arbetar med stora matriser i matlab (r209b) på min 32-bits win xp. Problemet är att jag behöver kontinuerligt minne i storleksordningen 1 GB, men det största jag vanligtvis har brukar ligga på 500MB. Jag har följt matlabs guider för att få mer minne (cleara variabler, dra ner på hardwareaccelerator och till en med en fix som skulle flytta om dll-filers minnenfält) men det blir ändå inte mer än ca 600 MB. Finn det inget inbyggd stöd i XP för defragmentering av RAM-minnet? Finns det annars ett tredjeparts gratisalternativ? Tacksam för svar.
EDIT: typisk output vid minnekontroll i matlab:
EDIT: typisk output vid minnekontroll i matlab:
Kod:
Largest Contiguous Free Blocks: 502 MB
Physical Memory (RAM):
In Use: 1403 MB (57b89000)
Free: 1923 MB (78372000)
Total: 3326 MB (cfefb000)
Page File (Swap space):
In Use: 1345 MB (541a1000)
Free: 3864 MB (f18cb000)
Total: 5210 MB (145a6c000)
Virtual Memory (Address Space):
In Use: 546 MB (22286000)
Free: 1501 MB (5dd5a000)
Total: 2047 MB (7ffe0000)
Largest Contiguous Free Blocks:
1. [at 1e270000] 502 MB (1f6c0000)
2. [at 3e1bb000] 440 MB (1b8a5000)
3. [at 5d36e000] 121 MB ( 7992000)
4. [at 6bc49000] 83 MB ( 53b7000)
5. [at 68ff7000] 44 MB ( 2c09000)
6. [at 663ef000] 28 MB ( 1c11000)
7. [at 5b8b5000] 23 MB ( 17db000)
8. [at 64d31000] 20 MB ( 149f000)
9. [at 71c03000] 19 MB ( 13fd000)
10. [at 59b01000] 18 MB ( 126f000)
======= ==========
1303 MB (517ae000)
__________________
Senast redigerad av Joonc 2011-10-24 kl. 17:23.
Senast redigerad av Joonc 2011-10-24 kl. 17:23.