Difference between revisions of "Talk:Aloha:patronenbundel"
(Single source publishing patronenbundel) |
(eerste stap) |
||
Line 4: | Line 4: | ||
M.a.w. ik wil er alles aan doen om 'single source publishing' te doen en vanuit de Wiki de '''content''' en de '''structure''' in een consistente '''layout''' te gieten. Eén van de mogelijke oplossingen is om alle pagina's die in de patronenbundel (deel III) terecht moeten komen overeenkomstig te 'taggen', waarbij we ook nog eens de volgorde van die pagina's op de e.o.a. manier willen bepalen, inclusief niet-patroon pagina's (met meer beschrijvende, verklarende en inleidende teksten), en de lo-res plaatjes (illustraties en foto's) vervangen door hun hi-res variant. En dat bij voorkeur zodanig dat Dennis uitsluitend de vorm/layout maakt en klaarzet waar de de inhoud en structuur in laten lopen die vervolgens automagisch tot certified PDF leidt. Hoe doen we dat met wget? | M.a.w. ik wil er alles aan doen om 'single source publishing' te doen en vanuit de Wiki de '''content''' en de '''structure''' in een consistente '''layout''' te gieten. Eén van de mogelijke oplossingen is om alle pagina's die in de patronenbundel (deel III) terecht moeten komen overeenkomstig te 'taggen', waarbij we ook nog eens de volgorde van die pagina's op de e.o.a. manier willen bepalen, inclusief niet-patroon pagina's (met meer beschrijvende, verklarende en inleidende teksten), en de lo-res plaatjes (illustraties en foto's) vervangen door hun hi-res variant. En dat bij voorkeur zodanig dat Dennis uitsluitend de vorm/layout maakt en klaarzet waar de de inhoud en structuur in laten lopen die vervolgens automagisch tot certified PDF leidt. Hoe doen we dat met wget? | ||
[[User:Willem|Willem]] 15:16, 26 February 2007 (CET)Dank je :) | |||
Kort: Maak een pagina met een inhoudsopgave er op. Links naar alle pagina's (patronen en niet, eventueel pagina's met hoofdstuk titels), in volgorde. | |||
Het scriptje loopt nu de links in de minestrone af. Dat moet dus een nieuwe pagina worden. | |||
Taggen is m.i. niet nodig. Wel handig voor ons redigeer proces, om te zien wat er allemaal is, en te selecteren wat waar in de inhoudsopgave komt. | |||
Lo-res/hi-res plaatjes had ik nog niet aan gedacht. Zou met een naamgevingsconventie kunnen worden opgelost, of met een 'woordenboek' (vervang _dit plaatje_ door _dat plaatje_). Eerste stap is ueberhaupt de plaatjes opnemen (gebeurt nog niet, alleen tekst). | |||
Ik zal m'n takenlijst hiervoor eens opduikelen. | |||
Voor drukker-klaarheid hebben we misschien ook nog pagina overgangen nodig. En uitzoeken of we uit de html de context- probleem- en oplossing- sectie makkelijk terug kunnen vinden. | |||
Misschien moeten we niet de html gebruiken maar een (dump van) de database. | |||
Het duurde even voordat dit idee opgepakt wordt... (er zit hier een patroon... ik heb het expiriment gedaant, en rustig gewacht tot iemand er om vroeg - mijn eigen nieuwsgierigheid bevredigd, en voorkomen dat ik gefrustreerd raak van 'al het werk dat ik voor niks gedaan heb' :) ) | |||
===Nit-picking:=== | |||
Niet met wget in ieder geval. Ik heb een scriptje gemaakt dat mede gebruik maakt van wget. Om onduidelijke redenen heeft wget problemen met sommige pagina's van de wiki, en levert dus een onvolledige bundel op. Een van de dingen om te doen is het scriptje verbouwen zodat het de pagina's met ruby's eigen HTTP:Get ophaalt - die leek wel te werken op pagina's waar wget faalde. | |||
Vanwaar 'certified' PDF? wat is dat? |
Revision as of 14:16, 26 February 2007
The Rock 14:52, 26 February 2007 (CET): Hoi Willem, m.b.t. generatie van patronnenbundel vanuit de Wiki:
- heel goed idee! wil ik heel graag moeiteloos werkend krijgen
- hoe krijgen we dit in de mooie, door Dennis te maken, vorm gegoten en als certifed PDF drukkerklaar?
M.a.w. ik wil er alles aan doen om 'single source publishing' te doen en vanuit de Wiki de content en de structure in een consistente layout te gieten. Eén van de mogelijke oplossingen is om alle pagina's die in de patronenbundel (deel III) terecht moeten komen overeenkomstig te 'taggen', waarbij we ook nog eens de volgorde van die pagina's op de e.o.a. manier willen bepalen, inclusief niet-patroon pagina's (met meer beschrijvende, verklarende en inleidende teksten), en de lo-res plaatjes (illustraties en foto's) vervangen door hun hi-res variant. En dat bij voorkeur zodanig dat Dennis uitsluitend de vorm/layout maakt en klaarzet waar de de inhoud en structuur in laten lopen die vervolgens automagisch tot certified PDF leidt. Hoe doen we dat met wget?
Willem 15:16, 26 February 2007 (CET)Dank je :) Kort: Maak een pagina met een inhoudsopgave er op. Links naar alle pagina's (patronen en niet, eventueel pagina's met hoofdstuk titels), in volgorde.
Het scriptje loopt nu de links in de minestrone af. Dat moet dus een nieuwe pagina worden.
Taggen is m.i. niet nodig. Wel handig voor ons redigeer proces, om te zien wat er allemaal is, en te selecteren wat waar in de inhoudsopgave komt.
Lo-res/hi-res plaatjes had ik nog niet aan gedacht. Zou met een naamgevingsconventie kunnen worden opgelost, of met een 'woordenboek' (vervang _dit plaatje_ door _dat plaatje_). Eerste stap is ueberhaupt de plaatjes opnemen (gebeurt nog niet, alleen tekst).
Ik zal m'n takenlijst hiervoor eens opduikelen.
Voor drukker-klaarheid hebben we misschien ook nog pagina overgangen nodig. En uitzoeken of we uit de html de context- probleem- en oplossing- sectie makkelijk terug kunnen vinden.
Misschien moeten we niet de html gebruiken maar een (dump van) de database.
Het duurde even voordat dit idee opgepakt wordt... (er zit hier een patroon... ik heb het expiriment gedaant, en rustig gewacht tot iemand er om vroeg - mijn eigen nieuwsgierigheid bevredigd, en voorkomen dat ik gefrustreerd raak van 'al het werk dat ik voor niks gedaan heb' :) )
Nit-picking:
Niet met wget in ieder geval. Ik heb een scriptje gemaakt dat mede gebruik maakt van wget. Om onduidelijke redenen heeft wget problemen met sommige pagina's van de wiki, en levert dus een onvolledige bundel op. Een van de dingen om te doen is het scriptje verbouwen zodat het de pagina's met ruby's eigen HTTP:Get ophaalt - die leek wel te werken op pagina's waar wget faalde.
Vanwaar 'certified' PDF? wat is dat?