If your running a recent distribution of Linux and it’s being polled by SNMP, chances are you see a log of this in your logs:
Logfiles zijn erg lastig door te bladeren, vooral als ze lang zijn.
Dit kan makkelijk opgelost worden door het commando less.
Hiermee kan een logfile worden geopend en doorheen gescrolt worden.
Handig is de toetscobminatie ctrl-F. Hiermee wordt er naar het einde van de logfile gegaan
Here’s a simple script I’m using to locate big directories (larger than 1GB):
du -h | grep "^ *[0-9][0-9.]*G"
The output looks like this:
Packet corrupt during ssh sessions
Whenever I’m using two subnets for my cluster I seems to be having problems with:
Corrupted MAC on input.
Disconnecting: Packet corrupt
It particularly happens when there’s a lot of information being passed to the screen. It’s a right killer when you’re compiling on a remote system. However, while I’ve been able to get around that by running a GNU Screen session on the remote box it was time to solve it.\

Er zijn verschillende tools om bestanden te zoeken. Maar de ‘find’ tool is een van de beste manieren om bestanden te zoeken. Deze tool heeft een uitgebreide collectie van parameters die kan worden gezet zodat Linux precies de juiste bestanden kan vinden waarna je opzoek was. De meeste gebruikers gebruiken ‘find’ met de basis parameters. Hieronder staat een uitgebreid overzicht van de belangrijkste opties van de find tool.

SVN is een hulpmiddel om bestanden uit te wisselen tussen de leden van een team. Het zorgt ervoor dat iedereen teamlid steeds over de laatste versies van alle project-files beschikt. Alle informatie over de synchronisatie worden in .svn mappen opgeslagen die standaard verborgen in de directories staan van je sourcecode. Continue reading »

Almost evertime whether install a new Debian Linux server to host some websites, use the popular small and mid-sized hosting solutioncombination:
- Apache webserver
- PHP module to interpret the PHP programming code
- MySQL to store the DB Backend

Wkhtmltopdf staat voor ‘Webkit HTML naar PDF’. Dit doet precies wat er staat.
Het is een open source command line tool welke ontwikkeld is door Apple die webpagina’s converteert naar PDF.
Zelf gebruik ik het op een website om PDF’s te genereren. Je kunt een URL ingeven die moet worden omgezet, maar ook zelf HTML naar de engine sturen. Lees hier een korte tutorial.
Rsync snapshots
Next we need to make another “copy” of the data we backed up. This copy is used as the previous version when we update this version. To do this, we copy the target directory to a .<n> version, where n is any digit. If we do this using hard links, the second “copy” won’t take up any space, so we’ll use the –l option of cp to tell it to use hard links when it makes the copy (cp –al /backups/home.0 /backups/home.1). Now we have two identical copies of our source directory on our backup system (/backups/home.0 and /backups/home.1) that take up the size of only one copy.