[13:47:42] buenas... como puedo extraer los articulos en html ? [13:49:15] Hola, do0b [13:49:34] jem, hola [13:49:48] Estoy desde tablet y no puedo escribir con agilidad [13:50:05] jem, no hay problemas [13:50:25] Pero en principio para eso no necesitas el API [13:51:23] Si solo quieres html normal, un volcado por ejemlplo con curl o lynx -source puede valer [13:51:47] (Asumo que sabes algo de programación) [13:52:37] Otra cosa es que para muchas cosas el html no creo que sea lo ideal, pero bueno [13:59:30] jem, lynx -source mywiki.local/wiki es suficiente para obtener todas las pags en HTML? [14:01:47] Ehm? [14:02:23] Qué se supone que es mywiki.local/wiki? [14:05:08] he instalado el motor de mediawiki en mi servidor local [14:06:57] Bien [14:07:36] O sea que es una dirección web de Intranet [14:08:14] Si quieres sacarlas todas, primero tendrías que volcar un listado [14:08:52] Desde Special:AllPages o consultando directamente la base de datos [14:09:30] Aunque sigp sin ver la utilidad, para exportarlo a otro wiki hay herramientas específicas [14:09:44] sigo* [14:10:12] Y para copia de seguridad, mucho mejor hacerla de la propia base de datos [14:24:59] no quiero hacer un respaldo... sino simplemente conseguir los HTML [14:25:49] Sigo sin ver ninguna utilidad... pero lo dicho [14:26:26] Volcado de páginas y bucle con curl o lynx para recorrerlas todas [15:07:05] gracias jem [15:12:41] jem, también, el query=extracts (si mal no recuerdo) da una versión con algo de html [15:12:48] (pero creo que no respeta los títulos ni los enlaces) [15:14:01] (además de que se necesita una extensión para que eso funcione) [15:50:53] Gracias, Polsaker, tampoco estaba en disposición de revisar el API estando en el tablet [16:25:32] De nada, do0b