/
donde se da cuenta de ese tipo de problemas y cómo resolverlos.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 4 de julio de 2014, 19:56, neo ericconchamu...@gmail.com escribió:
Que raro, habia enviado este email, pero creo que nunca salio de mi
compu ... gracias
garantizarÃa que cada fila llega a uno y
solo uno de ellos. TendrÃas, además, un diseño más limpio y fácil de
interpretar y mantener.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
2014-07-09 13:56 GMT+02:00 Marta valdes lopez martavalde...@gmail.com:
Hola a todos,
Me
%in% x:y), dat$ini, dat$fin),]
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 17 de julio de 2014, 17:19, Francisco Javier
iterado...@hotmail.com escribió:
Buenas
tardes,
Tengo un
data frame denominado “trabajadores”, que cubre desde el 1 de
enero de 1997 hasta el 30
m.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 29 de julio de 2014, 19:35, Alfredo David Alvarado Ríos
david.alvarad...@gmail.com escribió:
Buenas tardes grupo.
Carlos, siguiendo tu sugerencia hice dos cosas: releí el ejemplo de la
referencia que coloqué en el correo
tuyo.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 6 de agosto de 2014, 13:19, javier bueno enciso
jbuenoenc...@hotmail.com escribió:
Hola, soy nuevo en R y en esta lista de distribución, pero a ver si alguien
me puede echar una mano.
Tengo una matriz
de datos con
Hola, ¿qué tal?
Tengo publicado un ejemplo en
http://www.datanalytics.com/2014/06/05/minimos-cuadrados-con-restricciones/
en el que uso constrOptim y aplico restricciones muy parecidas a las tuyas.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 8 de octubre de 2014, 11
no significativo, cómo interpreto el no rechazo de la hipótesis
nula?
saludos
El 15 de octubre de 2014, 17:44, Carlos J. Gil Bellosta
c...@datanalytics.com escribió:
Hola, ¿qué tal?
Yo eliminaría las observaciones por encima de los noventaitantos (¿o
cien?) años. Son solo ruido, como puede observarse
al HTML generado por MS.
Trendrás que scrapear esas páginas. O ver si puedes acceder
directamente a algún tipo de descarga (¿en CSV?) de los informes que
MS muestra en la pantalla: a veces tienes esa opción.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 27 de octubre de
arranque adecuados (como sugiere Olivier)
desaparecería el problema. Pero tal vez es más sencillo usar el enlace
canónico.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 13 de noviembre de 2014, 16:12, Olivier Nuñez onu...@unex.es escribió:
Bueno, es posible que los altos
Hola, ¿qué tal?
Yo te recomendaría echarle un vistazo a
http://gking.harvard.edu/files/0s.pdf
y en particular, a la sección 4.1.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 14 de noviembre de 2014, 10:46, Isa García Barón
xan...@gmail.com escribió:
Hola, espero ser
funciones de lectura).
También podíais tratar de utilizar JSON (que obliga a usar UTF-8) en
lugar de CSV para el intercambio de datos.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 6 de febrero de 2015, 16:36, Javier Villacampa González
javier.villacampa.gonza...@gmail.com
conocimiento a priori de que algún
tipo de mortalidad tiene que haber en el grupo de control, aunque por
accidente no se haya registrado muerte alguna en él.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 3 de febrero de 2015, 16:17, Matias Ledesma
matutet...@hotmail.com
independientes que estás ignorando (que podrían explicar lo elevado de
la varianza de tus coeficientes)?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 3 de febrero de 2015, 16:17, Matias Ledesma
matutet...@hotmail.com escribió:
Hola a todos!
Tengo una duda acerca de una glm muy
exponencial sin truncar más una constante.
Luego la teoría habitual (de cómo el inverso de la media es el
estimador por MV de lambda) aplica con cambios mínimos.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 27 de enero de 2015, 19:53, Hector Gómez Fuerte
hect...@gmx.es escribió
alrededor del 7 como se espera. Supongo que
depende del número de casos en que x2 = 1 e y = 0.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 23 de enero de 2015, 9:54, Olivier Nuñez onu...@unex.es escribió:
Emilio,
espero no haberte generado mucha confusión con mi anterior
Hola, ¿qué tal?
Tu problema es que lo que llamas nombre es un factor. Mira esto:
cat(iris$Species[1])
1
cat(as.character(iris$Species[1]))
setosa
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 4 de enero de 2015, 10:39, Jose Manuel Veiga del Baño
chem...@um.es
Hola, ¿qué tal?
Puedes hacer
data - matrix(rnorm(100 *20), 100, 20)
medias - replicate(1000,{
sel - sample(1:20,10)
tmp - data[cbind(sel, sample(sel,100,replace = T))]
mean(tmp)
})
Mira el párrafo de ?] que comienza diciendo A third form of indexing...
Un saludo,
Carlos J. Gil Bellosta
.
Un saludo y suerte con R,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 21 de marzo de 2015, 8:39, Our Utopy ourut...@gmail.com escribió:
Hola buenos días, me presento, me llamo Miguel y 'soy de' y 'vivo en'
Galicia.
Soy profesor de secundaria (Bachillerato Adultos) y llevo 15 días
udemylist - sapply(udemylist, function(x) gsub([^[:graph:]], , x))
a tu código. Luego todo corre.
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 25 de marzo de 2015, 19:26, Ruben Tobalina Ramirez
lagrimaescr...@gmail.com escribió:
Hola, buenas,
no me prodigo mucho por
estadística contar es un problema. Pero se parece mucho más a
http://andrewgelman.com/2008/05/08/doing_the_candy/
(una pequeña historia que te recomiendo) que a aquellas historias de
las variaciones con y sin repetición de mi primero de BUP.
Un saludo,
Carlos J. Gil Bellosta
http
propia. Pero
siéntete libre de propinarle un gorrazo (virtual, por supuesto) de mi
parte a quien te obligue a ello.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
P.D.: Ahora más en serio: hay un buen motivo por el que la comunidad
no da (o no debería dar) soporte a versiones
Prueba esto:
x- c(24,12,45,68,45)
tmp - outer(x, x, *)
sum(tmp[lower.tri(tmp)])
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 24 de febrero de 2015, 10:02, mora...@us.es escribió:
Hola, quiero obtener la suma del producto de los elementos de un vector
y cuando
previamente enviando consultas SQL desde R
y solo descargar los datos (debidamente filtrados y muestreados, es
decir, pequeños y/o manejables) al final.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 4 de mayo de 2015, 20:15, Freddy Omar López Quintero
freddy.vat
Hola, ¿qué tal?
Pudiera ser un problema de locales. Mira ?Sys.getlocale. Eso podría
explicar las diferencias entre computadoras.
También puedes mirar lo que se cuenta sobre locales en ?as.POSIXct
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 11 de mayo de 2015, 15:14
Hola, ¿qué tal?
dim(arreglo[1:5, ,, drop = F]) # dim: 5x2
[1] 5 1 2
Está todo explicado en ?[
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 9 de abril de 2015, 16:28, Freddy Omar López Quintero
freddy.vat...@gmail.com escribió:
Hola muchachos,
Espero que estén muy
Hola, ¿qué tal?
data.table funciona con corchetes, no paréntesis. ¿Has leído la viñeta/tutorial?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanaytics.com
El día 8 de junio de 2015, 15:14, MªLuz Morales mlzm...@gmail.com escribió:
Hola,
yo quiero construir un data.table donde una columna
Hola, ¿qué tal?
¿Y por qué no, simplemente, sapply(mi.data.table, function(x) sum(is.na(x)))?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 19 de junio de 2015, 14:44, Olivier Nuñez onu...@unex.es escribió:
Si te devuelve 0 para todas las columnas es que no hay NA's
procesar tablas de 4000 filas no es recomendable
meterse en el tinglado de data.table. Creo que solo como a partir de
tablas con un tamaño dos órdenes de magnitud superiores comenzarías a
detectar diferencias de rendimiento.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 19 de
Hola, ¿qué tal?
Por ejemplo, así:
aves$area - log10(aves$area)
etc.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 27 de julio de 2015, 20:11, Susana deus alvarez
susanadeus.deusalva...@gmail.com escribió:
Estimad@s, quería realizar una consulta
Dado un data frame
Hola, ¿qué tal?
Sigue
http://www.datanalytics.com/2011/08/04/desarrollo-de-paquetes-con-r-iv-funciones-genericas/
a rajatabla y lo tendrás.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
P.D.: Si te fijas bien, no estás siguiendo esa guía a rajatabla.
El día 23 de julio de
Hola, ¿qué tal?
Tu función F está mal definida. Supongo que en el bucle quieres escribir
suma <- suma + ...
Tampoco tengo claro qué devuelve tu función. Si quieres que devuelva suma,
hazlo explícitamente.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 23 de octubre de 2
?axis
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 11 de noviembre de 2015, 15:21, Jesús Para Fernández <
j.para.fernan...@hotmail.com> escribió:
> Buenas,
>
> Quiero quitar tras hacer un plot(datos) o pairs(datos) los ejes que
> aparecen en la parte super
. Puedes probar con cosas como
http://www.lancs.ac.uk/~killick/Pub/KillickEckley2011.pdf
que son un poco más generales.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 8 de noviembre de 2015, 12:22, Albert Montolio
<albert.monto...@gmail.com> escribió:
> Hola chic@s,
ube la varianza. Si añado otro, posiblemente
también. Pero cuando añado muchísimos ceros, la varianza tiende a
cero.
Si luego los quito, me quedo con la original: ¡la varianza crece a
pesar de que la muestra está "más comprimida"!
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalyti
datos <- datos[ (1:nrow(datos) %% 400 != 0, ]
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 17 de noviembre de 2015, 15:14, Jesús Para Fernández
<j.para.fernan...@hotmail.com> escribió:
> Buenas, tengo un csv [csv final] con 5 filas, que es unión de varios
1 + floor(1:nrow(datos) / 400)
Pura aritmética, de nuevo.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 17 de noviembre de 2015, 15:28, Jesús Para Fernández
<j.para.fernan...@hotmail.com> escribió:
> Gracuas a todos!!!
>
> Por cierto, esta ya es de
Con el paquete ggmap. Hay ejemplos por todas partes.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 31 de octubre de 2015, 11:35, josebetancourt.cmw <
josebetancourt@infomed.sld.cu> escribió:
> Estimados
>
> ?Con que paquetes y script se pueden visualizar
En Windows, supongo.
¿Por qué no escribes un .bat que haga exactamente lo que cuentas?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 30 de octubre de 2015, 16:09, Jesús Para Fernández <
j.para.fernan...@hotmail.com> escribió:
> Buenas,
>
> Estoy creando
Hola, ¿qué tal?
No conocía CAELinux, pero he visto que está basado (o sea, que "es")
un Ubuntu 12.04. Edita el fichero
/etc/apt/sources.list
para incluir las URLs de CRAN como se indica en
http://cran.es.r-project.org/bin/linux/ubuntu/
Un saludo,
Carlos J. Gil Bel
paquete el problema para que le
eche un ojo. De todos modos, te recomendaría que comprobases el
problema también en la versión de desarrollo, la 1.9.5, por si ya se
ha arreglado. La actual (¿es la que usas?) es la 1.9.4.
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 30 de septiemb
Hola, ¿qué tal?
Mira a ver si te vale el paquete rPython.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 30 de septiembre de 2015, 21:55, heber sarmiento via R-help-es <
r-help-es@r-project.org> escribió:
> Hola a todos
> Estoy desarrollando algo en python co
que lo hay)?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 19 de septiembre de 2015, 22:41, Conney Marulanda <cpm...@hotmail.com>
escribió:
> Buenas noches,
> Escribo este mail porque tengo un problema con rmarkdown, estoy creando un
> informe y me iba bien al gener
Hola, ¿qué tal?
¿Puedes probar a ejecutar los "chunks" del documento original uno a uno?
¿Funcionan todos? ¿Tienes errores en alguno?
(En RStudio puedes ejecutar todos los "chunks" desde los menús; también los
puedes ejecutar uno a uno si ves algo raro).
Un saludo,
Carlos
Cualquier tutorial de análisis de la supervivencia con R puede ser un buen
punto de partida. Luego, échale un vistazo a
https://cran.r-project.org/web/views/Survival.html
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 7 de diciembre de 2015, 15:12, Jesús Para Fernández
¿tiene que estarlo?). Igual quieres que tu grafo no esté
dirigido. Tienes la función as.undirected para transformarlo en uno de
ese tipo.
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 2 de diciembre de 2015, 12:55, Javier Rubén Marcuzzi
<javier.ruben.marcu...@gmail.com> escri
utilice en cartelería, etc., junto con otros y que se sepa,
porque no somos tan famosos como otras organizaciones, quiénes somos).
Los comentarios que se recojan servirán en todo caso para afinar la
propuestas definitivas.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
rk), como aquí
<http://spark.apache.org/docs/latest/mllib-linear-methods.html#linear-support-vector-machines-svms>.
¡Pero no lo he probado nunca!
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 9 de diciembre de 2015, 13:15, MªLuz Morales <mlzm...@gmail.com>
escribió:
> B
a <- "17.691.700"
sub(".", "", a)
da lo que da (y no es lo que quieres).
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 24 de noviembre de 2015, 17:33, Sergio Castro
<castro.rodriguez.ser...@gmail.com> escribió:
> Buenas tardes
Comienza por https://cran.r-project.org/web/views/Environmetrics.html
El 9 de junio de 2016, 21:07, Javier Valdes Cantallopts (DGA) <
javier.val...@mop.gov.cl> escribió:
> Necesito saber consejos sobre algún paquete para realizar análisis
> estadístico para hidrología y precipitaciones con R.
>
os
>
> Yo podría decir ¿y data.table?. Hay muchas alternativas (no envié antes sin
> querer al correo).
>
> ¿Qué alternativa esta utilizando? Carlos Ortega y Carlos J. Gil Bellosta
> aportaron dos soluciones posibles, ¿Cuál le da problemas?
>
>
> Javier Rubén Marcuzzi
>
tiempo y memoria cuadrática en otro lineal.
Si no te vale para el conjunto de datos completo, siempre puedes
buscar los clústers con una muestra razonable y asignar el resto de
las observaciones a la que le corresponda.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 9 de
Hola, ¿qué tal?
Yo haría un árbol para predecir Severity en términos de XY. Luego me
quedaría con los dos primeros cortes (para crear tres grupos). Los
cortes serían óptimos en el sentido en que optimice el árbol.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 26 de enero
) para
reparametrizarlos de varias maneras.
De todos modos, lo que te recomiendo es usar el paquete effects para medir
(y graficar) el efecto de tus variables categóricas (además, con sus
incertidumbres, etc.) como aquí
<http://www.datanalytics.com/2015/07/14/efectos-en-regresiones-logisticas/>.
Un salud
uot; vacío, consume casi al 100%
una de mis cuatro CPUs.
Sospecho que podrían ser los diagnósticos de código que se han introducido
en las nuevas versiones, pero no lo he podido confirmar.
Estoy usando la última versión de RStudio (0.99.891) en un Xubuntu 14.04.
Un saludo y muchas gracias,
Car
Hola, ¿qué tal?
Trata de instalar el paquete stringr primero (que es el que da error). ¿Te
deja? Si hay error, ¿puedes copiar el mensaje completo?
Una pregunta tonta: en tu Ubuntu, ¿hay compilador?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 16 de marzo de 2016, 0:41
Hummm...
stringr depende de stringi, que es el que da el error. Prueba
install.packages("stringr", dependencies = TRUE)
En principio, R debería instalar todas las dependencias. Pero parece que no
es el caso aquí.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 16 d
iduals" "call" "series"
# [11] "code" "n.cond""nobs" "model" "aicc"
# [16] "bic" "x"
Esos son los componentes del objeto resultante. En la ayuda de ?Arima,
en
Hola, ¿qué tal?
En la lista se han recibido dos mensajes tuyos que, desafortunadamente,
nadie ha querido/sabido responder. Ten encuenta que son bastante técnicas y
relacionadas con un ámbito de aplicación que a muchos nos es ajeno.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
ible con R. Sería un caso parecido al de las diversas
máquinas virtuales de Java o compiladores de C. Si esa reimplementación no
fuese libre pero funcionase mejor que la habitual, tendríamos un problema.
Mientras tanto, creo que no hay motivo para preocuparse.
Un saludo,
Carlos J. Gil Bellosta
http:/
ndo de hacer RStudio por detrás!
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 1 de marzo de 2016, 23:42, Carlos J. Gil Bellosta <gilbello...@gmail.com>
escribió:
> Hola, ¿qué tal?
>
> No sé si alguien ha encontrado (¿y solucionado?) el mismo problema que yo.
) + sitio + error
y ver si el coeficiente de sitio es o no cero. El problema particular de
este ejemplo es que temp(h) (un modelo para la temperatura en función de la
hora) es una función no lineal. Igual podrías probar con los GAM.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 28
problema de si las diferencias se deben a las
ubicaciones o a los sensores.
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 29 de marzo de 2016, 12:15, José Trujillo Carmona <truji...@unex.es>
escribió:
> En mi modesta opinión el problema planteado no es con las
Hola, ¿qué tal?
Dos consejos. El primero, que no uses subset
<http://stackoverflow.com/questions/9860090/in-r-why-is-better-than-subset>.
Usa corchetes directamente.
El segundo, que utilices el operador %in%:
T[Tv2 %in% c(2,3),]
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalyti
Hola, ¿qué tal?
Casi seguro, es un problema de "encoding". ¿Estás desarrollando en Windows
(latin1) y subiendo al servidor en Linux (utf8)? Mira lo que se dice en
http://www.hep.by/gnu/r-patched/r-exts/R-exts_4.html
acerca de la codificación de caracteres en paquetes.
Un saludo,
Car
g <- function(f, x, k){
for(i in 1:k)
x <- f(x)
x
}
g(sqrt, 256, 3)
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 12 de mayo de 2016, 10:40, rubenfcasal <rubenfca...@gmail.com> escribió:
> Yo de primeras lo haría así:
>
> f <- function(x) r
de toda ralea. Se
puede vivir con ello, pero es mejor mantener a los novatos en la
programación al margen de ese tipo de problemas. Python es más adecuado.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
[[alternative HTML version deleted
n ocasiones-- que la demanda (p.e., a través de
herramientas sencillas de usar) podría incrementar la oferta.
Dicho lo cual, si alguien después de leer todo lo anterior siente algún
gusanillo por dentro, que me deje una nota y vemos qué cosas se pueden
hacer al respecto.
Salud,
Carlos J. Gil Be
Te faltan librerías en el sistema operativo. Trata de instalar X11 en tu
Mac. Creo que contiene la dependencia que necesitas.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 17 de julio de 2016, 15:21, Javier Marcuzzi <
javier.ruben.marcu...@gmail.com> escribió:
>
Hola, ¿qué tal?
Si son valores arbitrarios los que quieres colocar en Sigma_UZ, hazlos
más pequeños (p.e., dividiéndolos por 10).
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 17 de julio de 2016, 23:15, Freddy Omar López Quintero
<freddy.lopez.quint...@gmail.
library(plyr)
tmp <- curvas
tmp$grupo <- rep(rep(1:18, each = 10), times = numero_de_curvas)
ddply(tmp, .(curva, grupo), media = mean(valor))
supuesto que se den ciertas condiciones (como que todas las curvas tienen
180 puntos).
El 15 de julio de 2016, 14:31, Jesús Para Fernández <
educir esos
estadísticos. Y tendrás que tener cuidado con la parametrización particular
que hace R cuando no hay una supercanónica.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 11 de julio de 2016, 16:39, Rafael Saturno <rafael_satu...@hotmail.com>
escribió:
>
¿No puedes convertir tu objeto xts en uno de tipo ts para la descomposición?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 5 de agosto de 2016, 20:36, Carlos Aguero <dev.agu...@gmail.com>
escribió:
> Saludos a todos, quiera saber si alguno conoce alguna manera de
m
+zone=??? +datum=WGS84")
spgeo <- spTransform(sputm, CRS("+proj=longlat +datum=WGS84"))
Necesitas saber cuál es la zona de UTM de tus datos (para reemplazar
los ???). Casi seguro que es la 30.
Puedes añadir texto con ggmap usando geom_text.
Salud,
Carlos J. Gil Bellosta
http
Y una solución "clásica":
iris[rep(1:nrow(iris), each = 24),]
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 1 de julio de 2016, 11:35, Olivier Nuñez <onu...@unex.es> escribió:
> Una solución con el paquete data.table:
>
>> require(data.table)
Hola, ¿qué tal?
Usa & y no &&. Mira
?`&`
para los detalles. Más:
1) Te sobra el which. No es necesario.
2) Te recomendaría que transformases tu columna COFECHA a Date cuanto
antes. El código sería más simple.
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día
%in%
El día 23 de febrero de 2017, 11:19, Mauricio Monsalvo
escribió:
> Hola a todos.
> ¿Es posible filtrar casos en data.table por más de una categoría al mismo
> tiempo? Algo así como un IN o similar, dónde IN puede entenderse como
> "existe en":
> datos[Provincia IN
Hola, ¿qué tal?
En
https://www.datanalytics.com/2015/10/09/madrid-decide-propone-vota-etc/
tienes un ejemplo de una expresión try-catch para controlar ese tipo
de problemas.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 14 de febrero de 2017, 11:30, Sergio Castro
no tendrás problemas de ningún tipo.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 15 de febrero de 2017, 15:59, Javier Valdes Cantallopts (DGA) <
javier.val...@mop.gov.cl> escribió:
> De esa forma me sigue entregando lo mismo, multiplica las variables por
> dos (*80 obs
a <- a[c1 %% a == 0]
b <- n / a
b <- b[c2 %% b == 0]
if(length(b) == 0)
stop("No se ha encontrado ninguna opción")
idx <- which.max(abs(b - n / b))
c(n / b[idx], b[idx])
}
gridsizes.alt(100, 25, 4)
Un saludo,
Carlos J. Gil Bellosta
http://www.datana
?colMeans
El día 16 de febrero de 2017, 17:39, Carlos Ortega
escribió:
> Hola,
>
> Una opción muy sencilla:
>
> mean_col <- apply(datos_semanas, 2, mean)
>
> Saludos,
> Carlos Ortega
> www.qualityexcellence.es
>
>
> El 16 de febrero de 2017, 17:11,
s.csv", header = T, sep = "|")
funciona de maravilla.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 19 de enero de 2017, 0:22, Mauricio Monsalvo
<m.monsa...@gmail.com> escribió:
> Hola.
> Tengo un archivo que viene separado por "|"
Hola, ¿qué tal?
Si R crea la matriz de distancias necesitarás, como poco, 29*29*8 MB
de RAM. Puede ser mucho para tu equipo. Trata de correr el código
usando subconjuntos de datos (1%, 5%, 10%, etc.) para ver desde fuera
cuánta RAM estás consumiendo.
Salud,
Carlos J. Gil Bellosta
http
Trocea o desiste.
Nunca vas a poder procesar 10GB de XML con una máquina de las
habituales. Si tienes 64GB de RAM o más, es otra historia.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 20 de enero de 2017, 10:59, Milagros Camacho Bellido
<mila.camachobell...@gmail.
Busca "json" en
https://cran.r-project.org/web/packages/available_packages_by_name.html
Google suele ser más rápido que la lista para estos menesteres.
El día 16 de enero de 2017, 17:47, Horacio escribió:
> Hola, disculpen la pregunta si parece trivial, pero hay algún
Sí, claro: a mano y con dificultad.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 1 de marzo de 2017, 15:05, <jbetanco...@iscmc.cmw.sld.cu> escribió:
>
>
> Estimados
>
> ¿Es posible "traducir" scripts del Matlab a R?
>
>
> --
> Este
reshape2 + dcast
El día 3 de septiembre de 2016, 19:23, Fernando Macedo
escribió:
> Buenas, estoy intentando hacer una especie de pivot tables con data.table
> pero no logro que me salga.
>
> Este código refleja un poco lo que quiero
>
>
> library(data.table)
> set.seed(1234)
uot;%H:%M")
ggplot(datos, aes(x = hora, y = Miles)) + geom_line() +
scale_x_datetime(date_breaks = "15 mins", date_labels = "%H:%M")
Además, en aes no hay que hacer referencia a la tabla. Expresiones como
ggplot(datos, aes(x = datos$hora, y = datos$Miles)) + ...
son innecesar
Sí, la primera reunión de la temporada será el 8 de este mes.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 3 de septiembre de 2016, 23:52, Ruben Tobalina Ramirez <
lagrimaescr...@gmail.com> escribió:
> Muchas gracias a todos!
>
> Pues si, Eric, R a veces
Hola, ¿qué tal?
He leído en este hilo la respuesta correcta a la pregunta equivocada.
Realmente, no quieres crear variables con nombres generados con un
subíndice; quieres una lista.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 26 de septiembre de 2016, 16:40, Rafael
?merge
El 26 de septiembre de 2016, 22:09, Cesar Lopez
escribió:
> Buenas Tardes,
>
>
> Les escribo para solicitarles una ayuda dado que tengo 2 tablas, una con
> los campos:
>
>
> cedula | nombre | direccion
>
>
> y la otra con la tabla:
>
>
> cedula | barrio |
Hola, ¿qué tal?
En
https://cran.r-project.org/web/views/Cluster.html
tienes una discusión de paquetes que te pueden ser útiles. Te interesan los
que tienen que ver con mixturas de distribuciones normales, que es lo que
parece que tienes entre manos.
Un saludo,
Carlos J. Gil Bellosta
http
Hola, ¿qué tal?
¿No te vale epiDisplay
<https://cran.r-project.org/web/packages/epiDisplay/index.html>?
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 27 de octubre de 2016, 11:56, Dr. José A. Betancourt Bethencourt <
josebetancourt@infomed.sld.cu> escribió:
ía aplicaba solo si
todos los envíos por caso/empresa fuesen T. En el ejemplo mostrado daba
igual (¿accidente de los datos?); pero en el general, entiendo, no.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
>
> DT.new=DT[!(envio=="TRUE" & coche==&q
Tu problema es la coma. Cámbiala a punto y luego, as.numeric.
El 22/11/2016 8:08 p. m., escribió:
> Estimado Santiago Repetto
>
> Sus datos están mal.
>
> "#¡NULO!"
>
> En R es NULL, pero al importar o escribir los datos, el mismo R debería
> colocarlos en nulo,
Hola, ¿qué tal?
Spark correría en tantos hilos como estuviese configurado a utilizar (con
límite en los existentes). La promesa de sparklyr es que se trata de una
mera interfaz que delega el procesamiento de datos en Spark. Spark
paralelizaría (que de eso trata).
Un saludo,
Carlos J. Gil
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 10 de enero de 2017, 19:34, Pilar Vilaro <pilarvil...@gmail.com>
escribió:
> Hola,
> estoy intentando hacer un Tukey post test y no me lo permite.
> Hice el anova con aov sin problemas, pero al hacer el Tukey
des sacar los N mayores, etc.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 6 de enero de 2017, 4:38, eric <ericconchamu...@gmail.com> escribió:
> si se tiene un data.table (DT), supongamos de 100 filas por 3 columnas de
> datos numericos, como puedo hacer para obten
Hola, ¿qué tal?
Tienes una discusión sobre esos asuntos aquí
<http://rpsychologist.com/r-guide-longitudinal-lme-lmer>. Puedes usar los
paquetes lmer o nlme (me decantaría por el primero).
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 22 de marzo de 2017, 17:48, Seb
visto todo. Incluido pasarse todas esas reglas a la torera sin que
haya pasado nada en absoluto (en España).
Un saludo,
Carlos J. Gil Bellosta
http://www.datatanalytics.com
El 16 de marzo de 2017, 18:04, Francisco Rodríguez <fjr...@hotmail.com>
escribió:
> Hola Carlos, buen
De hecho, dos de los principios de diseño de R son:
1) Todo lo que existe es un objeto.
2) Todo lo que sucede es una llamada a una función.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El 15 de marzo de 2017, 14:22, <miguel.angel.rodriguez.mui...@sergas.es>
es
1 - 100 de 155 matches
Mail list logo